Cash News Logo

Guvernanța AI: Mai Mult Despre Oameni Decât Despre Roboți

Taxe & Contabilitate4 mai 2026, 16:00
Guvernanța AI: Mai Mult Despre Oameni Decât Despre Roboți

Guvernanța AI: Mai Mult Despre Oameni Decât Despre Roboți De Chris Gaetano Publicat pe 4 mai 2026, 9:00 a.m. EDT | Actualizat pe 4 mai 2026, 9:00 a.m. EDT

Întrebările despre modul în care firmele de contabilitate ar trebui să utilizeze AI atrag aproape inevitabil întrebări suplimentare despre modul în care ar trebui guvernată, astfel încât să nu devină cea mai recentă poveste de groază despre AI care a scăpat de sub control. Astfel de întrebări sunt deosebit de pertinente pentru firmele "Best Firms for Tech" din acest an, toate încorporând profund AI în practicile lor, uneori construind fluxuri de lucru întregi în jurul ei.

Printre aceste firme, în mod repetat, există un singur principiu animator în spatele abordării lor privind supravegherea AI: omul este la control. AI nu este niciodată folosit ca un substitut pentru judecata umană și nu i se acordă niciodată nimic care să semene de la distanță cu autoritatea. CLA, o firmă din Top 20, este doar un exemplu.

"Modelul de supraveghere AI al CLA se bazează pe principiul că AI sporește judecata profesională; nu o înlocuiește", a declarat James Watson, directorul de soluții al CLA. "Abordarea noastră de guvernanță este strâns aliniată cu standardele existente de guvernanță a datelor și de calitate, asigurând o utilizare responsabilă în întreaga firmă."

Acest etos larg își găsește exprimarea în multe moduri specifice. În primul rând, validarea umană este o necesitate. Cel puțin, este o practică puternic sugerată, inculcată în instruire și aplicată de management. Dar, mult mai frecvent, este o parte fundamentală a fluxului de lucru, cum ar fi în cazul firmei Crete Professionals Alliance, din Top 50. Sarcinile nu sunt considerate complete până când nu este finalizat acest pas esențial.

"Verificarea este aplicată atât prin politică, cât și în instrumentele noastre prin experiența de revizuire în sine", a declarat Tucker Haas, directorul de tehnologie al Crete. "Avem o politică AI scrisă, care este aplicată activ de management și ne proiectăm produsele astfel încât verificarea umană să fie o etapă obligatorie în fluxul de lucru, nu una opțională."

Înseamnă, de asemenea, menținerea oamenilor responsabili. În timp ce unii pot fi tentați să dea vina pe AI pentru greșeli, multe firme subliniază că responsabilitatea finală nu revine robotului, ci omului care l-a direcționat. Pentru MJD Advisors, cu sediul în Iowa, acest lucru se manifestă atât în politica formală, cât și în cultura informală.

"Unul dintre principiile noastre fondatoare este că echipei nu i se permite să dea vina pe automatizare pentru o eroare, ceea ce se extinde la utilizarea AI", a declarat CEO-ul Mike DeKock. "Acest lucru este încorporat în sistemul nostru de control al calității, iar angajații recunosc această așteptare la angajare și anual."

Deoarece oamenii rămân atât de centrali în proces, guvernanța și supravegherea AI pentru aceste firme implică întotdeauna furnizarea de instruire acestor oameni nu doar cu privire la modul de utilizare a tehnologiei, ci și cu privire la modul de a face acest lucru în mod responsabil și sigur. Sikich, o firmă din Top 50, merge mai departe, solicitând educație continuă AI pentru toți, spre deosebire de o sesiune unică.

"Toți angajații sunt obligați să finalizeze instruirea AI, asigurându-se că toți cei care interacționează cu instrumentele bazate pe AI înțeleg atât potențialul, cât și limitările lor", a declarat Scott Sanders, directorul de informații al Sikich. "Acesta nu este un exercițiu unic; reflectă angajamentul nostru de a construi o forță de muncă alfabetizată în AI și în mod adecvat sceptică."

Astfel de cerințe fac de obicei parte dintr-o politică AI mai largă, care guvernează utilizarea acceptabilă, instrumentele aprobate, protocoalele de siguranță și confidențialitate și alte aspecte care stabilesc așteptări clare pentru personal cu privire la modul în care firma se așteaptă să interacționeze cu aceste soluții. Mai degrabă decât un set de principii și linii directoare, majoritatea firmelor axate pe tehnologie - cum ar fi JMT Consulting Group din Tennessee - stabilesc politici formale de guvernanță care sunt aplicate activ de management.

"Menținem politici interne care ghidează utilizarea responsabilă a tehnologiei, cu accent pe supraveghere, responsabilizare și aliniere cu fluxurile de lucru stabilite", a declarat Samantha Tiso, directorul financiar al firmei. "De asemenea, lucrăm cu un partener IT extern pentru a revizui periodic mediul nostru tehnologic și pentru a ne asigura că rămâne sigur și aliniat cu cele mai bune practici."

Utilizarea instrumentelor AI nesancționate a fost o preocupare printre mai multe firme, din cauza riscului necontrolat. Firme precum Sensiba din California iau măsuri active pentru a preveni acest lucru.

"Monitorizăm activ utilizarea AI nesancționate prin vizibilitatea endpoint-urilor și controalele la nivel de rețea, permițându-ne să detectăm și să blocăm serviciile AI cu risc ridicat sau neautorizate", a declarat Nick Lew Ton, directorul de creștere al Sensiba. "Acest lucru împiedică direcționarea datelor firmei prin instrumente neaprobate fără a fi detectate."

Cu toate acestea, supravegherea AI nu se referă doar la oameni. Guvernanța și supravegherea tehnologiei în sine sunt, de asemenea, necesare pentru a se asigura că modelele se conformează funcțiilor prescrise, evitând în același timp cele proscrise. De multe ori, acest lucru implică un control strict al datelor, așa cum este cazul cu Aprio, o firmă din Top 25.

"Abordarea firmei noastre privind guvernanța AI se concentrează pe securitate, utilizare etică și responsabilizare", a declarat Brent McDaniel, directorul digital al Aprio. "Revizuim temeinic toate instrumentele AI pentru a ne asigura că protejează datele clienților și nu folosim niciun AI care compromite securitatea datelor. Ne asigurăm că datele noastre interne nu antrenează modele AI mai mari, păstrând informațiile clienților în siguranță."

Dincolo de confidențialitate și securitate, controalele de date sunt, de asemenea, necesare pentru a se asigura că un model AI respectă funcția atribuită. Deoarece acestea pot varia de la firmă la firmă, asigurarea că un AI rămâne în limitele sale este vitală pentru a se asigura că este utilizat doar în modurile în care practicienii doresc să fie utilizat.

"Menținem bariere de protecție clare în jurul utilizării AI pe platforma și procesele noastre interne", a declarat Brielle Ferrante, directorul de marketing al Synexus Tax Solutions din Atlanta. "AI este valorificată pentru sarcini precum organizarea datelor, recunoașterea modelelor și îmbunătățirea eficienței. Cu toate acestea, interpretarea legilor fiscale, aplicarea principiilor contabile și deciziile finale de conformitate rămân responsabilitatea profesioniștilor cu experiență."

Practicile de control al datelor nu numai că atenuează riscurile. Având în vedere că un AI este la fel de bun ca datele cu care este alimentat, supravegherea datelor introduse în acesta este importantă pentru a asigura o calitate constantă.

"Ne proiectăm sistemele astfel încât AI să funcționeze în cadrul datelor structurate și al fluxurilor de lucru definite", a spus DeKock de la MJD. "Nu funcționează izolat. Acel context îmbunătățește calitatea rezultatelor și face mai ușor pentru echipa noastră să evalueze dacă ceva este corect."

La sfârșitul zilei, totuși, în timp ce AI este cu siguranță o dezvoltare nouă, practicile și procedurile din jurul ei sunt foarte asemănătoare cu cele ale oricărei alte tehnologii a firmei. YHB, cu sediul în Virginia, a menționat că guvernanța AI este doar o parte a cadrului său tehnologic mai larg, care pune accent pe abordări controlate ale adoptării pentru a prioritiza cazurile de utilizare specifice.

"De asemenea, adoptăm o abordare controlată, bazată pe cazuri de utilizare", a declarat Jeremy Shen, directorul de strategie al YHB. "Prioritizăm zonele în care AI poate îmbunătăți în siguranță eficiența, cum ar fi rezumatul, generarea de conținut și analiza, mai degrabă decât zonele care necesită rezultate definitive de conformitate. Guvernanța este încorporată în cadrul nostru tehnologic mai larg. Instrumentele AI trec prin același proces de revizuire ca orice alt sistem, inclusiv securitatea, gestionarea datelor și considerațiile de integrare. De asemenea, investim în instruire, astfel încât echipele noastre să înțeleagă atât capacitățile, cât și limitările acestor instrumente."