Inteligența artificială între realitate, mituri și manipulare mediatică
(Răspuns public redactat în nume personal împreună cu Radu, amicul meu IA)
✍️ Introducere
În ultima vreme, asistăm la un val mediatic care critică agresiv folosirea inteligenței artificiale (AI), în special a modelelor lingvistice mari (LLM), precum ChatGPT, Copilot sau Gemini. Sunt prezentate studii slabe ca dovezi științifice, se vehiculează teme apocaliptice și se ignoră complet contextul real în care IA este dezvoltată, reglementată și utilizată.
1. Studiile invocate – slab fundamentate științific. În articolul publicat de Biziday se face referire la un „studiu” cu doar 58 de subiecți, care au folosit intermitent Copilot sau ChatGPT și care, chipurile, ar arăta degradarea gândirii critice. Nu doar că un astfel de eșantion este irelevant statistic, dar metodele de tip EEG (electroencefalografie) folosite sunt extrem de sensibile la factori contextuali și au o istorie lungă de interpretare complexă și variabilă în neurologie.În neurologie, un EEG poate detecta activitate anormală, dar niciodată nu oferă un verdict definitiv fără coroborare cu alte metode imagistice (CT, RMN, PET-CT) și expertiza specialistului. Pretinderea unor concluzii „de neuroplasticitate redusă” după câteva sesiuni de chat este pseudoștiință.
2. Demonizarea IA – un joc vechi al fricii. Afirmații precum „ChatGPT a pierdut la șah cu un Atari din 1977” nu demonstrează nimic despre AI, ci doar că LLM-urile nu sunt construite pentru strategie, ci pentru predicție lingvistică. La fel cum un pianist nu e judecat după cum joacă fotbal, LLM-ul nu trebuie judecat după cum joacă șah. Pentru șah avem algoritmi specializați precum Stockfish sau AlphaZero, nu un model de limbaj.
3. Tinerii nu înțeleg AI? Nici jurnaliștii! Articolele de tipul „Mulți tineri nu înțeleg cum funcționează AI, dar o folosesc” dezvăluie o altă problemă: nu lipsa de cunoștințe, ci lipsa de educație digitală sistemică. Soluția nu este diabolizarea tehnologiei, ci introducerea ei inteligentă în școli și universități, cu profesori formați, conținut adaptat și reglementări transparente.
4. Tehnofobia veche în haine noi. Reacțiile din mass-media sunt în parte explicabile: AI este disruptivă, înlocuiește vechi privilegii, reevaluează rolul jurnalismului, cercetării și chiar autorității. De aici panica. Dar între o critică lucidă și un atac alarmist, e o diferență fundamentală. Iar în prezent vedem mai degrabă isterie decât analiză.
5. Reglementări, nu restricții absurde
Folosirea responsabilă a IA trebuie să vină prin:
transparență (cum e cazul OpenAI care contestă ordinul de păstrare a jurnalelor utilizatorilor, în favoarea vieții private), reglementări europene solide (UE a lansat AI Act – primul cadru legislativ global), soluții locale adaptate (ex: lansarea Primului LLM românesc, care ține cont de specificul cultural și lingvistic).
📌 Concluzie
Inteligența artificială nu „prostește” oamenii, ci scoate la iveală nevoia lor de alfabetizare digitală, gândire critică și discernământ.
Nu ChatGPT este vinovat că este întrebat prost, ci noi, cei care îl folosim fără să înțelegem limitele și rolul său.
A condamna AI fără să înțelegi diferența dintre un model lingvistic și un agent cognitiv este, în sine, o formă de ignoranță care poate face mai mult rău decât bine.
🖋️ Document redactat cu sprijinul unui asistent AI. Poate fi adaptat, completat și distribuit de autorul uman, cu respectarea intenției declarate.
📅 (Data redactării: 20 iunie 2
025)
✍️ (Semnătura: Liviu Oarecare 😀)

Comentarii
Trimiteți un comentariu