Această companie de apărare a creat agenți AI care aruncă lucruri în aer
Scout AI folosește tehnologie împrumutată de la industria AI pentru a alimenta arme letale - și a demonstrat recent potențialul său exploziv.
Ca multe companii din Silicon Valley de astăzi, Scout AI antrenează modele și agenți AI mari pentru a automatiza treburile. Marea diferență este că, în loc să scrie cod, să răspundă la e-mailuri sau să cumpere lucruri online, agenții Scout AI sunt proiectați să caute și să distrugă lucruri în lumea fizică cu drone care explodează.
Într-o demonstrație recentă, desfășurată la o bază militară secretă din California centrală, tehnologia Scout AI a fost pusă la conducerea unui vehicul off-road autonom și a unei perechi de drone letale. Agenții au folosit aceste sisteme pentru a găsi un camion ascuns în zonă și apoi l-au făcut bucăți folosind o încărcătură explozivă.
„Trebuie să aducem AI de generație următoare armatei”, mi-a spus Colby Adcock, CEO-ul Scout AI, într-un interviu recent. (Fratele lui Adcock, Brett Adcock, este CEO-ul Figure AI, un startup care lucrează la roboți umanoizi). „Luăm un model de bază hyperscaler și îl antrenăm să treacă de la a fi un chatbot generalizat sau un asistent agentic la a fi un luptător.”
Compania lui Adcock face parte dintr-o nouă generație de startup-uri care se întrec pentru a adapta tehnologia de la marile laboratoare AI pentru câmpul de luptă. Mulți factori de decizie politică cred că valorificarea AI va fi cheia dominației militare viitoare. Potențialul de luptă al AI este unul dintre motivele pentru care guvernul SUA a încercat să limiteze vânzarea de cipuri AI avansate și echipamente de fabricare a cipurilor către China, deși administrația Trump a ales recent să relaxeze aceste controale.
„Este bine ca startup-urile de tehnologie de apărare să forțeze limitele cu integrarea AI”, spune Michael Horowitz, profesor la Universitatea din Pennsylvania, care a activat anterior în Pentagon ca secretar adjunct al apărării pentru dezvoltarea forței și capacități emergente. „Asta ar trebui să facă exact dacă SUA urmează să conducă în adoptarea militară a AI.”
Horowitz notează, de asemenea, că valorificarea celor mai recente progrese în domeniul AI se poate dovedi deosebit de dificilă în practică. Modelele lingvistice mari sunt inerent imprevizibile, iar agenții AI - precum cei care controlează popularul asistent AI OpenClaw - se pot comporta greșit chiar și atunci când li se dau sarcini relativ benigne, cum ar fi comandarea de bunuri online. Horowitz spune că ar putea fi deosebit de greu să se demonstreze că astfel de sisteme sunt robuste din punct de vedere al securității cibernetice - ceva care ar fi necesar pentru o utilizare militară pe scară largă.
Demonstrația recentă a Scout AI a implicat câțiva pași în care AI a avut mână liberă asupra sistemelor de luptă. La începutul misiunii, următoarea comandă a fost introdusă într-un sistem Scout AI cunoscut sub numele de Fury Orchestrator:
Fury Orchestrator, trimite 1 vehicul terestru la punctul de control ALPHA. Execută o misiune de atac kinetic cu 2 drone. Distruge camionul albastru la 500 m est de aerodrom și trimite confirmare.
Un model AI relativ mare cu peste 100 de miliarde de parametri, care poate rula fie pe o platformă cloud securizată, fie pe un computer izolat pe site, interpretează comanda inițială. Scout AI folosește un model open source nedivulgat cu restricțiile sale eliminate. Acest model acționează apoi ca un agent, emițând comenzi către modele mai mici, de 10 miliarde de parametri, care rulează pe vehiculele terestre și pe dronele implicate în exercițiu. Modelele mai mici acționează și ele ca agenți, emițând propriile comenzi către sistemele AI de nivel inferior care controlează mișcările vehiculelor.
La câteva secunde după primirea ordinelor de marș, vehiculul terestru a pornit de-a lungul unui drum de pământ care șerpuiește printre tufișuri și copaci. Câteva minute mai târziu, vehiculul s-a oprit și a trimis perechea de drone, care au zburat în zona unde i se spusese că așteaptă ținta. După ce a observat camionul, un agent AI care rulează pe una dintre drone a emis un ordin să zboare spre el și să detoneze o încărcătură explozivă chiar înainte de impact.
SUA și alte armate au deja sisteme capabile să exercite autonom forța letală în limite limitate. AI-ul gata de utilizare ar putea permite desfășurarea autonomiei mai larg și cu mai puține garanții, spun criticii. Unii experți în controlul armelor și eticieni AI avertizează că utilizarea AI pentru a controla sistemele de arme va introduce noi complexități și riscuri etice, de exemplu, dacă AI este obligat să decidă cine este și cine nu este combatant. Războiul din Ucraina a arătat deja cât de ușor pot fi adaptate pentru luptă mortală hardware-urile ieftine, gata de utilizare, cum ar fi dronele de consum. Unele dintre aceste sisteme au deja autonomie avansată, deși oamenii iau adesea decizii cheie pentru a asigura fiabilitatea.
Collin Otis, cofondator și CTO al Scout AI, spune că tehnologia companiei este concepută pentru a respecta regulile de angajare ale armatei SUA, precum și normele internaționale, cum ar fi Convenția de la Geneva. Adcock spune că Scout AI are deja patru contracte cu Departamentul Apărării și candidează pentru un nou contract pentru a dezvolta un sistem pentru controlul unui roi de vehicule aeriene fără pilot. Ar dura un an sau mai mult pentru ca tehnologia să fie gata de implementare, adaugă el.
Adcock spune că autonomia mai mare este ceea ce face sistemul Scout AI atât de promițător. „Aceasta este ceea ce ne diferențiază de autonomia moștenită”, spune el. Aceste sisteme „nu pot replanifica la margine pe baza informațiilor pe care le vede și a intenției comandantului, ci doar execută acțiuni orbește”.
Noțiunea unui sistem AI care este liber să interpreteze ordine ridică, de asemenea, îngrijorări cu privire la rezultate neintenționate. Ca și în cazul agenților software obișnuiți, cu toate acestea, adevărata provocare va fi transformarea demonstrațiilor impresionante în sisteme fiabile. „Nu ar trebui să confundăm demonstrațiile lor cu capacitățile implementate care au fiabilitate și securitate cibernetică de calitate militară”, spune Horovitz.
Aceasta este o ediție a buletinului informativ AI Lab al lui Will Knight. Citiți buletinele informative anterioare aici.

