Current track

Title

Artist


”Naşul AI” şi alţi experţi au lansat un apel pentru o reglementare mai strictă a conţinuturilor ”deepfake”

Written by on 21 februarie 2024

Experţi din domeniul inteligenţei artificiale (AI) şi directori ai unor companii din industria de profil, inclusiv unul dintre pionierii acestei tehnologii, Yoshua Bengio, au semnat o scrisoare deschisă prin care au cerut o reglementare mai strictă a conţinuturilor de tip „deepfake”, invocând riscuri potenţiale pentru societatea umană, informează Reuters.

„În prezent, conţinuturile ‘deepfake’ implică adeseori imagini cu caracter sexual, fraude şi dezinformare politică. Deoarece AI progresează rapid şi face ca producţiile ‘deepfake’ să fie mult mai uşor de creat, sunt necesare măsuri de protecţie”, a afirmat grupul în scrisoarea deschisă redactată de Andrew Critch, cercetător în domeniul inteligenţei artificiale la Universitatea California din Berkeley.

Conţinuturile ”deepfake” sunt imagini, înregistrări audio şi video realiste, dar trucate, create de algoritmi de inteligenţă artificială, iar progresele recente ale acestei tehnologii au făcut ca ele să devină din ce în ce mai greu de diferenţiat de conţinuturile create de oameni.

Scrisoarea deschisă, intitulată „Disrupting the Deepfake Supply Chain” („Întreruperea lanţului de aprovizionare pentru deepfake”), face o serie de recomandări cu privire la modul de reglementare a conţinuturilor „deepfake”, inclusiv incriminarea completă a pornografiei infantile de tip „deepfake” şi sancţiuni penale pentru orice persoană care creează sau facilitează cu bună ştiinţă răspândirea de „deepfake” dăunătoare, solicitând totodată companiilor de inteligenţă artificială să împiedice produsele lor să creeze conţinuturi „deepfake” dăunătoare.

Până miercuri dimineaţă, peste 400 de persoane din diverse industrii, inclusiv din mediul academic, divertisment şi politică, au semnat scrisoarea.

Printre semnatari se numără Steven Pinker, profesor de psihologie la Universitatea Harvard, Joy Buolamwini, fondatoarea Ligii Justiţiei Algoritmice, doi foşti preşedinţi estonieni, cercetători de la Google DeepMind şi un cercetător de la OpenAI.

Garantarea faptului că sistemele de inteligenţă artificială nu dăunează societăţii a fost o prioritate pentru autorităţile de reglementare după ce compania OpenAI, susţinută de Microsoft, a lansat ChatGPT la sfârşitul anului 2022, care a uimit utilizatorii prin capacitatea sa de a susţine conversaţii asemănătoare cu cele umane şi prin uşurinţa cu care îndeplineşte diverse alte sarcini.

Au existat mai multe avertismente din partea unor personalităţi proeminente cu privire la riscurile generate de AI, în special o scrisoare semnată de Elon Musk anul trecut, în care se cerea o pauză de şase luni în dezvoltarea unor sisteme mai puternice decât modelul de inteligenţă artificială GPT-4 creat de OpenAI.

AGERPRES/(AS – autor: Florin Bădescu, editor: Codruţ Bălu, editor online: Gabriela Badea)


Conținutul website-ului www.agerpres.ro este destinat exclusiv informării publice. Toate informaţiile publicate pe acest site de către AGERPRES sunt protejate de către dispoziţiile legale incidente. Sunt interzise copierea, reproducerea, recompilarea, modificarea, precum şi orice modalitate de exploatare a conţinutului acestui website. Detalii în secţiunea Condiții de utilizare. Dacă sunteţi interesaţi de preluarea ştirilor AGERPRES, vă rugăm să contactați Departamentul Marketing – marketing@agerpres.ro.
Utilizarea secţiunii Comentarii reprezintă acordul dumneavoastră de a respecta termenii şi condiţiile AGERPRES în ceea ce priveşte publicarea comentariilor pe www.agerpres.ro.

Loading


Reader's opinions

Leave a Reply


Sari la conținut