Profesorul Pablo Sanguinetti subliniază faptul că limbajul utilizat pentru a descrie Inteligența Artificială influențează percepția publicului și, indirect, direcția dezvoltării tehnologice. În prezent, inteligența artificială este adesea prezentată ca o entitate autonomă, aproape vie, capabilă să „gândească” și să „aleagă” singură. Această imagine este atrăgătoare pentru presă și marketing, dar este departe de realitatea funcționării sistemelor actuale, potrivit celor de la The Conversation.
Mitul „tehnologiei autonome” se înscrie într-o tradiție culturală mai veche, denumită de teoreticianul Langdon Winner în anii ’70. Aceasta sugerează că invențiile și tehnologia scapă de sub controlul oamenilor și evoluează conform unei logici proprii. De la mitul lui Prometeu la povești precum Frankenstein sau filmele precum Terminator, AI este adesea asociată cu scenarii dominate de teamă și inevitabilitate.
Chiar și termenul „inteligență artificială” poate induce în eroare. Acesta a fost introdus în 1955 de informaticianul John McCarthy, deși ambiguitatea lui era evidentă. Conform cercetătoarei Kate Crawford, AI nu este nici complet artificială, nici cu adevărat inteligentă: depinde de resurse naturale, infrastructură tehnologică, muncă umană și contexte sociale complexe.
În limbajul curent, AI „învață”, „înțelege” sau „ia decizii”. Acest mod de exprimare generează așteptări nerealiste, anxietate și ideea că viitorul este deja scris. Promisiunea unei inteligențe artificiale generale – susținută chiar de companii precum Microsoft sau OpenAI – este prezentată ca inevitabilă, deși nu există consens științific că aceasta va fi realizată vreodată.
Această abordare fantezistă nu reprezintă doar o problemă teoretică. Potrivit unui raport al AI Now Institute, promisiunile exagerate legate de AI sunt folosite pentru a evita discuții esențiale despre riscurile reale: efectele asupra locurilor de muncă, educației, mediului și democrației. În plus, ele pot duce la supraevaluarea pieței, ceea ce prezintă riscuri de corecții bruște.
Sanguinetti propune o schimbare de perspectivă: AI ar trebui privită ca un rezultat al colaborării dintre oameni și tehnologie, nu ca o forță independentă. Aceasta implică:
- mutarea atenției de la scenarii catastrofice la riscuri concrete și actuale;
- sublinierea importanței deciziilor umane în proiectarea și utilizarea AI;
- evitarea limbajului antropomorf, preferând termeni tehnici precum „procesare avansată a sarcinilor”.
Discuțiile despre reglementare, educație sau piața muncii nu pot fi solide dacă se bazează pe metafore înșelătoare. Clarificarea modului în care discutăm despre inteligența artificială nu este un simplu detaliu de comunicare, ci o chestiune etică fundamentală. Numai înțelegând AI ca un sistem socio-tehnic – și nu ca un creier autonom – putem lua decizii corecte în ceea ce privește utilizarea sa în beneficiul public.













