Cash News Logo

Un bărbat accesează accidental 6.700 de aspiratoare robot cu cameră

Tech & AI28 februarie 2026, 13:30
Un bărbat accesează accidental 6.700 de aspiratoare robot cu cameră

Un bărbat accesează accidental 6.700 de aspiratoare robot cu cameră.

Ideea de a lăsa un robot autonom conectat la internet să se plimbe prin casă ar trebui să ne dea de gândit. Atunci când robotul este un aspirator mobil echipat cu o cameră și un microfon care pot fi deturnate de oriunde din lume doar cu numărul său de serie, devine o poveste de groază privind confidențialitatea. Un astfel de proprietar de aspirator robot, Sammy Azdoufal, a descoperit această vulnerabilitate absurdă de securitate în timp ce încerca să piloteze aspiratorul său robot DJI Romo cu un controler PS5. A descoperit că, în schimb, putea controla 6.700 de roboți din 24 de țări din întreaga lume, cu acces complet la planurile locuințelor proprietarilor și la fluxurile lor video și audio.

Când The Verge l-a contactat pe Azdoufal, acesta a putut accesa instantaneu un Romo deținut de un angajat al publicației de știri tehnologice doar cunoscându-i numărul de serie de 14 cifre. DJI a remediat acum vulnerabilitatea ca răspuns la faptul că Azdoufal a postat pe Twitter, în esență, descoperirile sale în timp real. Cu toate acestea, povestea ridică întrebări serioase cu privire la securitatea altor gadgeturi audio sau video conectate la internet - ca să nu mai vorbim de cele capabile să se plimbe liber prin casa ta.

Directorul interimar al CISA este înlocuit pe măsură ce agenția se luptă

În timp ce Departamentul pentru Securitate Internă a fost extrem de împuternicit în timpul administrației Trump în misiunea sa de a deporta milioane de imigranți, organizația din cadrul DHS care servește drept principal apărător cibernetic al Statelor Unite, Agenția pentru Securitate Cibernetică și Infrastructură, a fost neglijată. Acum, directorul său interimar, Madhu Gottumukkala, a fost înlocuit, în timp ce CISA caută să găsească un nou punct de sprijin. Chiar și înainte de această știre, CyberScoop a raportat săptămâna aceasta despre crizele care au afectat agenția pe tot parcursul primului an de la inaugurarea lui Trump: o treime din personal a fost concediată și divizii întregi ale agenției au fost închise. Nominalizările pentru un director permanent au fost blocate în Congres. Capacitățile sale s-au diminuat, iar organizațiile care au solicitat asistență și parteneriate de la CISA au căutat în altă parte. Gottumukkala a suferit propriile scandaluri mai personale, cum ar fi demiterea personalului de securitate după ce a picat un test poligraf și a împărtășit contracte sensibile pe ChatGPT. Acum, Nick Andersen, care a ocupat funcția de director executiv al CISA pentru securitate cibernetică, îl va înlocui pe Gottumukkala în cadrul agenției asediate.

Modelele AI continuă să recomande lovituri nucleare în simulările de jocuri de război

Un cercetător de la King's College London a pus trei modele lingvistice mari populare unul împotriva celuilalt în scenarii simulate de jocuri de război și a constatat că, în 95% din cazuri, cel puțin unul dintre modele a optat să desfășoare arme nucleare tactice. Cercetătorul a mai constatat că, atunci când un model AI a desfășurat o armă nucleară tactică, adversarul său AI a redus escaladarea doar într-un sfert din cazuri. Niciuna dintre companiile din spatele celor trei modele - OpenAI, Google și Anthropic - nu a răspuns solicitării de comentarii a New Scientist. Rolul AI în război a ajuns în centrul atenției săptămâna aceasta. Anthropic și Departamentul de Război sunt implicate într-o dispută contractuală cu privire la faptul dacă modelele AI ale Anthropic pot fi utilizate pentru a alimenta arme complet autonome și supravegherea internă în masă. Dario Amodei, CEO-ul Anthropic, a scris într-o declarație că aceste tipuri de cazuri de utilizare "pot submina, mai degrabă decât apăra, valorile democratice". La rândul său, președintele Donald Trump a amenințat că va interzice utilizarea produselor Anthropic, inclusiv a chatbot-ului său Claude, în cadrul guvernului SUA. Între timp, sute de angajați Google și OpenAI au semnat o scrisoare deschisă prin care le solicită șefilor lor să "lase deoparte diferențele și să stea împreună pentru a continua să refuze cerințele actuale ale Departamentului de Război de a utiliza modelele noastre pentru supravegherea internă în masă și pentru a ucide autonom persoane fără supraveghere umană".

O nouă aplicație vă permite să verificați dacă există ochelari inteligenți în apropiere

O nouă aplicație pentru telefoanele Android numită Nearby Glasses permite utilizatorilor să scaneze ochelarii inteligenți din apropiere, dezvăluind prezența gadgeturilor purtabile, care sunt uneori indistinguizabile de ochelarii normali și permit purtătorilor să înregistreze persoane fără știrea lor. Aplicația scanează semnăturile Bluetooth unice pe care le emit ochelarii și trimite utilizatorilor o notificare dacă detectează o sursă în apropiere. Dezvoltatorul a declarat pentru 404 Media că a fost inspirat să construiască aplicația după ce a citit despre mai multe incidente care implică ochelari inteligenți. Peste vară, 404 Media a raportat că un agent al Vămii și Protecției Frontierei a purtat o pereche în timpul unui raid de imigrare, iar în această toamnă publicația a raportat, de asemenea, că bărbați foloseau ochelari inteligenți pentru a filma lucrătoare din saloanele de masaj, aparent fără știrea sau consimțământul lor. În februarie, The New York Times a raportat că un dezvoltator de ochelari inteligenți, Meta, avea planuri de a integra recunoașterea facială în ochelarii săi, stârnind noi îngrijorări în rândul experților în confidențialitate.