astronaut

Ce sunt halucinațiile AI și cum să le evităm


Suntem la un prompt distanță de dezinformare

Câți dintre noi nu folosim AI măcar o dată pe zi, chiar și fără să ne dăm seama? Fie că îi punem o întrebare mai tehnică sau pur și simplu îl folosim ca pe un motor de căutare pentru a afla informații banale, cu toții ne bucurăm într-o oarecare măsură de această inovație tehnologică.

Având în vedere modul elevat și bine argumentat în care generează răspunsurile, suntem predispuși să le credem, fără a ne îndoi de veridicitatea acestora. Totuși, așa cum s-a dovedit în foarte multe cazuri, inteligența artificială nu are mereu cele mai bune surse de informare sau poate face greșeli, oferindu-ne răspunsuri eronate, care duc la dezinformare. Din fericire, putem evita aceste situații inoportune înțelegând modul în care funcționează modelele AI și cum percep prompturile noastre.


Cum funcționează AI și de ce apar halucinațiile

La bază, termenul ,,halucinație” presupune a vedea sau a auzi ceva ce nu există în realitate. Totuși, cum se aplică asta la Inteligența Artificială? Pentru a înțelege acest concept, trebuie să analizăm modul în care sunt generate răspunsurile sau, mai bine zis, cum știu modelele AI să răspundă la orice întrebare.

AI-ul funcționează pe principiul analizei unui volum mare de date pe care se antrenează și învață anumite tipare, pe baza cărora reușesc să ne răspundă la întrebări. Deși foarte mari, mai ales în cazul ChatBoților precum Chat GPT sau Google Gemini, seturile de date au anumite limitări și nu reușesc să acopere fiecare domeniu suficient de bine. De asemenea, acestea pot să nu dețină cele mai noi informații cu privire la un subiect mai puțin popular. Din această cauză, apar anumite goluri de informație.

Sub presiunea de a răspunde la orice întrebare a utilizatorului, inteligența artificială umple aceste lacune cu informații fictive, dar care, la o primă vedere, sună plauzibil. Cele mai des întâlnite în rândul utilizatorilor sunt citatele false, evenimentele istorice total eronate sau statistici perfecte pentru prompt-ul pe care l-ai oferit, dar care nu au la bază niciun studiu care să le justifice.


Cum să eviți halucinațiile prin GROUNDING

Acest concept nu presupune altceva decât ancorarea modelului AI în realitate, oferindu-i surse externe.


Și cum fac mai exact asta?

Deși poate părea fancy, în realitate totul este foarte simplu: îi oferim câteva materiale (link-uri relevante, documente în format pdf, etc.), astfel încât, în loc să se bazeze doar pe setul de date pe care a fost antrenat și pe tiparele învățate, ChatBot-ul preia informații veridice sau actualizate din sursele primite de la noi, utilizatorii, pe baza cărora formulează sinteze sau răspunsuri relevante.


Așadar, chiar dacă problema halucinațiilor AI nu poate fi eliminată complet, putem să evităm în majoritatea cazurilor astfel de situații neplăcute folosindu-ne de grounding. De asemenea, așa cum este menționat explicit de către creatorii tuturor ChatBoților, nu ezitați să faceți puțin research în cazul informațiilor importante, deoarece inclusiv AI-ul greșește uneori.


Vladu Răzvan

Membru Departament Educațional

Sindicatul Studenților din Cibernetică (SiSC)


astronaut
astronaut