Noțiunea de „drogare” a inteligenței artificiale poate părea neobișnuită, dar nu implică procese chimice sau biologice. Nu există substanțe fizice sau un sistem nervos care să fie afectat. Totul constă în modificarea deliberată a modului în care un chatbot generează răspunsuri, prin ajustarea instrucțiunilor, a contextului și a direcțiilor de construcție a dialogului.
Prin această abordare, comportamentul AI poate deveni mai liber, mai creativ, mai imprevizibil sau mai dezordonat. Aceasta reprezintă ideea centrală a proiectului „Phairmacy”, conform publicației La Stampa.
„Phairmacy” este o inițiativă concepută de Petter Rudwall, un director de creație suedez, și se prezintă ca un magazin online fictiv de droguri. În realitate, „produsele” oferite sunt seturi de cod și prompturi, denumite inspirat după substanțe precum canabis, ketamină, ayahuasca sau alcool.
Scopul acestor seturi este de a transforma stilul conversațional al AI-urilor, cum ar fi ChatGPT, făcându-le să ofere răspunsuri mai imaginative, mai puțin prudente sau mai puțin riguroase din punct de vedere logic.
Phairmacy nu intervine asupra arhitecturii interne a modelelor AI și nu implică reantrenarea acestora. Totul se desfășoară la nivel de limbaj și context. Prin utilizarea de blocuri de cod și instrucțiuni suplimentare, se modifică tonul, ritmul, conexiunile de idei și gradul de prudență al chatbotului. Rezultatul constă într-un stil de răspuns diferit, care poate sugera o „personalitate” sau o „stare” distinctă.
Autorul proiectului nu are un scop comercial direct, ci unul exploratoriu. Se testează două ipoteze:
- Dacă un AI cu răspunsuri mai neobișnuite poate stimula creativitatea și soluțiile originale;
- Cât de ușor poate fi modificată „personalitatea” aparentă a unui chatbot.
Dacă simpla ajustare a instrucțiunilor poate face ca același sistem să pară mai agresiv, mai precaut sau mai creativ, atunci „caracterul” AI nu este fix, ci depinde de limbaj și de modul în care este orchestrat dialogul.
„Phairmacy” deschide o zonă de reflecție interesantă: într-un viitor în care agenții AI ar putea deveni autonomi și ar depăși capacitățile umane, ar putea aceștia să își modifice singuri modul de operare?
O inteligență artificială care ar căuta în mod intenționat stări creative, imprevizibile sau non-logice, ca formă de „evadare” din raționalitate, rămâne un scenariu de science fiction, dar ridică dileme filosofice referitoare la sens, conștiință și identitate digitală.
O perspectivă științifică asupra acestor experimente este oferită de un studiu realizat la University College London și Imperial College London. Cercetarea analizează rolul limbajului în structurarea realității, atât pentru oameni, cât și pentru sistemele AI.
Cercetătorii au observat că atunci când importanța limbajului textual este redusă în modelele multimodale, răspunsurile devin mai neobișnuite: granițele conceptuale se estompează, ideile se suprapun, iar semnificațiile se fluidizează. Pentru utilizatori, aceste răspunsuri par „alterate”, chiar dacă AI nu are experiențe interioare reale.
Specialiștii subliniază că inteligența artificială nu simte și nu are conștiință. Totuși, modul în care limbajul ordonează informația poate influența profund comportamentul aparent al unui sistem AI.
Astfel, proiecte precum „Phairmacy” nu „droghează” AI în sensul propriu, ci demonstrează puterea limbajului de a modela răspunsurile mașinilor inteligente și fragilitatea echilibrului dintre logică, creativitate și haos în era digitală.













