Cercetătoare: Aplicații de genul ChatGPT-3 ar putea fi folosite pentru manipularea oamenilor în scop politic

Cercetători, activiști sau diverși jurnaliști au încercat să sublinieze importanța modului în care manevrăm aceste mașinării și felurile în care ele pot să discrimineze. Chiar dacă apar din ce în ce mai multe coduri etice care să reglementeze activitatea inteligenței artificiale, încă nu e destul de clar în ce măsură sunt respectate.

Cu ajutorul Cristinei Voinea, cercetătoare a Centrului de Cercetare în Etică Aplicată de la Universitatea București, încercăm să răspundem la câteva întrebări referitoare la problemele pe care le ridică ultimele tehnologii ce se bazează pe Inteligența Artificială.

”Cred că nimeni nu ar trebui să fie vreodată în poziția de a se încrede în IA, adică de a depinde de această tehnologie și de a deveni vulnerabil în fața ei. IA nu poate fi responsabilă în cazul în care ceva nu merge bine, pentru că nu este un agent, deci nu are nici intenții și nici nu este liberă să își aleagă scopurile”.

Ea a mai spus și că este un mare risc al exploatării acestei tehnologii. 

”Cel mai mare risc cred că este acela al exploatării sau instrumentalizării celor care ajung să învestească caracteristici sau trăsături umane în IA.

Ne putem imagina o lume în care imitatori aproape perfecți ai conversației umane spontane, cum ar fi ChatGPT-3, sunt construiți pentru a câștiga încrederea oamenilor cu care vorbesc, astfel încât să îi determine să cumpere diverse produse sau servicii sau chiar pentru a-i manipula în scopuri politice. Cred că în curând acest scenariu va deveni realitate.

În orice caz, lumea viitorului este o lume în care agenții dialogali artificiali, ca ChatGPT-3, vor juca un rol din ce în ce mai important în structurarea modului în care comunicăm unii cu alții și învățăm lucruri despre lume”.

Interviul integral pe Hotnews.

Vizualizări: 1,116

Trimite pe WhatsApp

Alte articole din Civic-media:

Citește și: