Cash News Logo

Anthropic lansează un instrument de revizuire a codului AI pentru a verifica fluxul de cod generat de inteligența artificială

Criptomonede9 martie 2026, 21:41
Anthropic lansează un instrument de revizuire a codului AI pentru a verifica fluxul de cod generat de inteligența artificială

Anthropic lansează un instrument de revizuire a codului pentru a verifica fluxul masiv de cod generat de inteligența artificială.

Când vine vorba de codare, feedback-ul colegilor este crucial pentru depistarea timpurie a erorilor, menținerea consistenței în cadrul unei baze de cod și îmbunătățirea calității generale a software-ului. Ascensiunea "codării de vibrație" - utilizarea instrumentelor AI care preiau instrucțiuni date în limbaj simplu și generează rapid cantități mari de cod - a schimbat modul în care lucrează dezvoltatorii. Deși aceste instrumente au accelerat dezvoltarea, ele au introdus și erori noi, riscuri de securitate și cod prost înțeles.

Soluția Anthropic este un revizor AI conceput pentru a depista erorile înainte ca acestea să ajungă în baza de cod a software-ului. Noul produs, numit Code Review, a fost lansat luni în Claude Code.

"Am observat o creștere semnificativă în Claude Code, în special în cadrul întreprinderilor, iar una dintre întrebările pe care le primim constant de la liderii întreprinderilor este: Acum că Claude Code creează o mulțime de cereri de tragere (pull requests), cum mă asigur că acestea sunt revizuite într-un mod eficient?" a declarat Cat Wu, șeful de produs al Anthropic, pentru TechCrunch. Cererile de tragere sunt un mecanism pe care dezvoltatorii îl folosesc pentru a trimite modificări ale codului pentru revizuire înainte ca aceste modificări să ajungă în software. Wu a spus că Claude Code a crescut dramatic producția de cod, ceea ce a dus la o creștere a revizuirilor cererilor de tragere, care au provocat un blocaj în livrarea codului. "Code Review este răspunsul nostru la această problemă", a spus Wu.

Lansarea de către Anthropic a Code Review - care ajunge inițial la clienții Claude for Teams și Claude for Enterprise în versiune de cercetare - vine într-un moment crucial pentru companie.

Luni, Anthropic a depus două procese împotriva Departamentului Apărării ca răspuns la desemnarea companiei Anthropic drept risc în lanțul de aprovizionare. Disputa va determina probabil Anthropic să se bazeze mai mult pe activitatea sa în expansiune cu întreprinderile, care a înregistrat o creștere de patru ori a abonamentelor de la începutul anului. Veniturile generate de Claude Code au depășit 2,5 miliarde de dolari de la lansare, potrivit companiei.

"Acest produs este foarte mult orientat către utilizatorii noștri de întreprindere la scară largă, deci companii precum Uber, Salesforce, Accenture, care utilizează deja Claude Code și acum doresc ajutor cu volumul mare de [cereri de tragere] pe care le ajută să le producă", a spus Wu. Ea a adăugat că liderii de dezvoltare pot activa Code Review pentru a rula în mod implicit pentru fiecare inginer din echipă. Odată activat, se integrează cu GitHub și analizează automat cererile de tragere, lăsând comentarii direct pe cod, explicând potențialele probleme și sugestiile de remediere. Accentul este pus pe remedierea erorilor logice, nu pe stil, a spus Wu.

"Acest lucru este foarte important, deoarece mulți dezvoltatori au mai văzut feedback automatizat AI și sunt enervați atunci când nu este imediat aplicabil", a spus Wu. "Am decis să ne concentrăm exclusiv pe erorile logice. În acest fel, prindem lucrurile cu cea mai mare prioritate de remediat."

AI explică raționamentul pas cu pas, subliniind ce crede că este problema, de ce ar putea fi problematică și cum poate fi potențial remediată. Sistemul va eticheta severitatea problemelor folosind culori: roșu pentru cea mai mare severitate, galben pentru probleme potențiale care merită revizuite și violet pentru problemele legate de codul preexistent sau de erorile istorice.

Wu a spus că face acest lucru rapid și eficient, bazându-se pe mai mulți agenți care lucrează în paralel, fiecare agent examinând baza de cod dintr-o perspectivă sau dimensiune diferită. Un agent final agregă și clasifică constatările, eliminând duplicatele și prioritizând ceea ce este cel mai important.

Instrumentul oferă o analiză ușoară a securității, iar liderii de inginerie pot personaliza verificări suplimentare pe baza celor mai bune practici interne. Wu a spus că Claude Code Security, lansat mai recent de Anthropic, oferă o analiză de securitate mai profundă.

Arhitectura multi-agent înseamnă că acesta poate fi un produs intensiv în resurse, a spus Wu. Similar cu alte servicii AI, prețurile se bazează pe token-uri, iar costul variază în funcție de complexitatea codului - deși Wu a estimat că fiecare recenzie ar costa în medie între 15 și 25 de dolari. Ea a adăugat că este o experiență premium și una necesară, pe măsură ce instrumentele AI generează din ce în ce mai mult cod.

"[Code Review] este ceva care vine dintr-o cerere imensă din partea pieței", a spus Wu. "Pe măsură ce inginerii dezvoltă cu Claude Code, ei văd că fricțiunea pentru crearea unei noi funcții [scade] și văd o cerere mult mai mare pentru revizuirea codului. Așa că sperăm că, cu asta, vom permite întreprinderilor să construiască mai repede decât au putut vreodată și cu mult mai puține erori decât au avut vreodată."