Cash News Logo

Exclusiv: Inteligența artificială corectivă Adobe poate schimba emoțiile unei voci

Tech & AI29 octombrie 2025, 14:30
Exclusiv: Inteligența artificială corectivă Adobe poate schimba emoțiile unei voci

Adobe m-a așezat și mi-a prezentat un scurt videoclip demonstrativ cu o voce narativă factuală, dacă nu chiar plictisitoare. Nu era nimic special, dar după ce am scos o transcriere, am evidențiat textul și am ales dintr-o listă de emoții prestabilite, performanța vocală s-a schimbat complet. A trecut de la plat la încrezător, apoi de la încrezător la o șoaptă, totul în câteva secunde.

Adobe o numește „Inteligență Artificială Corectivă” și este una dintre multele funcții pe care compania le va demonstra mai târziu astăzi în timpul prezentării sale MAX Sneaks, care are loc în timpul conferinței anuale MAX. (Adobe a plătit o parte din cheltuielile mele de călătorie pentru a participa la conferința sa MAX.) Sneaks este locul unde Adobe prezintă tehnologii și prototipuri viitoare la care lucrează, iar multe dintre aceste funcții ajung în cele din urmă în suita creativă completă Adobe în câteva luni. În timpul MAX din acest an, Adobe a lansat discurs generativ pentru Firefly, care vă permite nu numai să utilizați mai multe voci prestabilite, ci și să adăugați etichete de emoție pentru a schimba inflexiunea. Această funcție de Inteligență Artificială Corectivă aduce această funcționalitate într-un flux de lucru mai practic. În loc să utilizați o voce complet generată de AI, puteți retușa o performanță vocală existentă.

Lee Brimelow de la Adobe mi-a arătat, de asemenea, cum AI poate extrage diferite părți ale unei singure piste audio pentru a crea mai multe. Prototipul Sneaks, numit Project Clean Take, este limitat la cinci piste, dar poate separa voci, zgomot ambiental, efecte sonore și multe altele. A fost surprinzător cât de precis a fost modelul AI capabil să separe pistele. Într-un exemplu, Adobe mi-a arătat pe cineva care vorbea în fața unui pod mobil, cu sunetul clopotului podului depășind complet vocea gazdei. După rularea modelului AI, sunetul clopotului a dispărut. Chiar mai bine, Adobe mi-a arătat cum îl puteți aduce înapoi prin ajustarea individuală a nivelurilor acestor piste separate. Într-un alt exemplu, Adobe a demonstrat cum ar putea fi util atunci când un creator filmează în public, mai ales când se redă muzică licențiată în fundal. Nu este un secret faptul că muzica fără licență este o cale rapidă către o lovitură de drepturi de autor prin sistemele automatizate de pe platforme precum YouTube. În demo, modelul AI al Adobe a reușit să separe muzica, să o înlocuiască cu o pistă similară de la Adobe Stock și să aplice efecte pentru a-i oferi reverb și ambianța pistei originale, totul cu câteva clicuri.

Aceste funcții utilizează AI pentru a rezolva problemele de zi cu zi pentru editorii și creatorii video, ajutând la restabilirea audio-ului defect sau la economisirea timpului și a bătăilor de cap ale reînregistrării unei performanțe vocale. Adobe va prezenta, de asemenea, noi funcții generative AI în timpul prezentării sale Sneaks. Pentru designerii de sunet, compania mi-a arătat cum modelul său AI poate analiza și adăuga automat efecte sonore la un videoclip, toate despre care susține că sunt generate de AI, dar sunt sigure pentru a fi utilizate comercial.

Oriol Nieto de la Adobe a încărcat un scurt videoclip cu o mână de scene și o voce narativă, dar fără efecte sonore. Modelul AI a analizat videoclipul și l-a împărțit în scene, aplicând etichete emoționale și o descriere a fiecărei scene. Apoi, au venit efectele sonore. Modelul AI a preluat o scenă cu un ceas cu alarmă, de exemplu, și a creat automat un efect sonor. A identificat o scenă în care personajul principal (o caracatiță, în acest caz) conducea o mașină și a adăugat un efect sonor de închidere a unei uși. Nu a fost perfect. Sunetul alarmei nu era realist, iar într-o scenă în care două personaje se îmbrățișau, modelul AI a adăugat un foșnet nenatural de haine care nu a funcționat. În loc de editare manuală, Adobe a folosit o interfață conversațională (cum ar fi ChatGPT) pentru a descrie modificările. În scena cu mașina, nu exista niciun sunet ambiental din mașină. În loc să selecteze manual scena, Adobe a folosit interfața conversațională și a cerut modelului AI să adauge un efect sonor de mașină la scenă. A găsit cu succes scena, a generat efectul sonor și l-a plasat perfect.

Aceste caracteristici experimentale nu sunt disponibile, dar de obicei își fac loc în suita Adobe. De exemplu, Harmonize, o funcție din Photoshop care plasează automat active cu culori și iluminare precise într-o scenă, a fost prezentată la Sneaks anul trecut. Acum, este în Photoshop. Așteptați-vă să apară cândva în 2026.

Anunțul Adobe vine la doar câteva luni după ce actorii vocali din jocurile video au încheiat o grevă de aproape un an pentru a asigura protecții în jurul AI - companiile sunt obligate să obțină consimțământul și să furnizeze acorduri de divulgare atunci când dezvoltatorii de jocuri doresc să recreeze vocea sau asemănarea unui actor vocal prin intermediul AI. Actorii vocali se pregătesc de ceva timp pentru impactul pe care îl va avea AI asupra afacerii, iar noile funcții Adobe, chiar dacă nu generează o voce narativă de la zero, sunt încă un alt indicator al schimbării pe care AI o forțează asupra industriei creative.