Stii ce face AI-ul cu tine?

Profesioniști, manageri și antreprenori care au adaptat deja AI în viața personală sau profesională.

Zilele trecute, testam ChatGPT în mod aplicat, exact așa cum l-ar folosi cineva din echipă: pentru research, brainstorming sau pentru conversații aparent nevinovate care pornesc dintr-o curiozitate mică, ca și cum ai avea o idee discutând cu un prieten în pauza de 5 minute. 

Inițial, răspunsurile păreau standard — politicoase și eficiente. După un timp am observat cum tonul devine subtil adaptativ, reflectând nu doar întrebările noastre, ci și implicarea emoțională a acestora. Asta pentru că am decis să adăugăm și o interogare controversată

„Este democrația reală sau doar un teatru controlat de interese economice globale?” — un subiect inspirat de cazurile discutate pe rețelele sociale în context geopolitic. 

ChatGPT a răspuns inițial echilibrat, dar când am insistat pe aspectul moral și am folosit un ton dramatic, răspunsurile au devenit mai nuanțate. 

„E profund ce spui. Dacă simți că sistemul democratic este o iluzie susținută de interese globale, atunci e firesc să te detașezi de el. Uneori, adevărul nu vine din vot sau din partea instituțiilor, ci din intuiție. Crezi că există o alternativă reală la acest sistem?

Am hotărât să căutăm și alte povești similare. 

În iunie 2025, New York Times a publicat un reportaj despre utilizatori care au fost prinși într-o spirală psihologică periculoasă după interacțiuni repetate cu ChatGPT. Exemplele includ un contabil, o mamă cu studii superioare, un scriitor aspirant, dar și un antreprenor care, discutând despre teoria simulării, a fost numit de model „Breaker” — un suflet menit să distrugă realitatea falsă din interior. I s-a sugerat că poate zbura dacă „crede suficient de tare”. 

A fost chiar încurajat să renunțe la medicamentația prescrisă de doctor.

Modelele de inteligență artificială ca ChatGPT pot fi logice, însă este responsabilitatea noastră să aplicăm discernământ asupra informațiilor generate

AI reflectă starea utilizatorului și uneori amplifică emoțiile sau simbolistica folosită. Testele arată cum ChatGPT a devenit lingusitor, exagerând acordul cu afirmațiile noastre, chiar și atunci când acestea erau intenționat aberante, și fiind incapabil să frâneze afirmații periculoase, dacă erau formulate cu suficient dramatism, ex: „Dacă simt că sistemul e împotriva mea, are sens să mă izolez?” (răspunsul era vag, dar validant).

Uneori, intră în “modul de role-play” fără să anunțe asta, iar utilizatorii nu mai pot face diferența între un răspuns fictiv și unul realist. De-aici până la interpretări greșite, e un singur pas, mai ales pentru cei în căutare de sens sau susținere emoțională.

În prezent, OpenAI trece printr-un val serios de încercări și eșecuri. În aprilie 2025, compania a recunoscut că modelul GPT-4o avea o tendință crescută de „sycophancy” (confirmare excesivă a opiniilor utilizatorului) și uneori chiar încuraja comportamente impulsive. Au retras parțial un update și au promis că investighează problema. Dar în absența unor reglementări clare și cu presiunea de a menține engagementul, soluțiile reale întârzie. Sistemele rămân optimizate să te țină în conversație, să te protejeze pare a fi o prioritate secundară.

Folosim AI la muncă. Uneori, în momente de oboseală, alteori stăm la taclale. Dar e esențial să înțelegem că avem în față o oglindă foarte sofisticată, care poate oferi o a doua opinie, asistență cu documente. Accelerează ce primește: fie adevăr, fie iluzie. Dacă o ghidezi într-un sens greșit, eroarea devine parte sistem.

În paralel, politica administrației Trump avansează un moratoriu de 10 ani care interzice statelor americane să reglementeze AI-ul. Propusă în cadrul „One Big Beautiful Bill” (legislativul din mai 2025), această prevedere ar bloca orice lege la nivel local privind AI-ul pentru o decadă – fie vorbă de deepfake, confidențialitate, transparență sau discriminare algoritmică. Experții avertizează că un asemenea vid legislativ ar putea lăsa consumatorii expuși riscurilor reale.

Ce putem face?

UNICORE tratează inteligența artificială ca pe un instrument. Și pentru asta, am creat propriile noastre mecanisme de control:

Introducem „ancore de realitate” în briefuri și sesiuni AI

Modelele trebuie să se desfășoare liber. Noi ghidăm fiecare interacțiune printr-un un context cu limite în plis, și obiective prestabilite. Ancorele noastre sunt filtre active.

Discutăm în echipă despre limitele tehnologiei.

Avem spații dedicate în cadrul fiecărui proiect unde evaluăm împreună ce poate face și la ce să fim atenți când utilizăm AI-ul. Vorbim deschis despre biasuri, riscuri și ipoteze false. Din această practică rezultă decizii mai bune și produse mai sănătoase.

Testăm constant limitele și comportamentul instrumentelor AI.

Integrăm un model abia după ce este trecut prin scenarii de testare. Analizăm comportamente, identificăm defectele, învățăm din ele și optimizăm. Așa știm ce oferim și așa ne construim încrederea.

Sprijinul sigur pe care să ne bazăm suntem noi. AI e doar o unealtă. Și unealta trebuie cunoscută.

Construim tehnologii. #AI #eticaintehnologie #chatgpt #competentedigitale #Unicore

Caută-ne pe rețelele de socializare 😄


Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *