ChatGPT, asistentul virtual

ChatGPT, asistentul virtual

Cum facem să integrăm inteligența artificială, cu tot cu asistenții ei virtuali (care nu sunt prietenii noștri deocamdată, ci doar niște unelte), în viața noastră de zi cu zi, ca să obținem lucruri utile – aceasta e întrebarea zilei.

Ca orice noutate, ChatGPT (noutate relativă, pentru că nu este prima tentativă de acest gen, iar despre inteligența artificială/IA se vorbește deja de ani buni) a stârnit o serie de discuții aprinse și controverse, de la interpretări romantice la teamă și incertitudine sau chiar demonizare. Un domeniu în care entuziasmul este poate prea mare, fiind încă la început în înțelegerea fenomenului, este cel medical. Un studiu recent a încercat să analizeze dacă ChatGPT ar putea să ofere informații medicale corecte în domeniul sănătății. Acest studiu, nu lipsit de bias, a arătat că peste 90% dintre răspunsuri (enorm!) sunt bazate pe dovezi (adică sunt sintetizate din studii clinice valide), dar mai puțin de un sfert dintre ele ofereau și soluții clare sau referiri la bibliografie concretă,specifică. Bias-ul cercetării derivă din genul de întrebări adresate, foarte generale, de aceea și șansele de eroare au fost mai mici. Întrebările puse lui ChatGPT au fost din domeniul dependențelor, violenței în familie, sănătății mentale și sănătății fizice – anumite boli cu prevalență mare în populație. Răspunsurile au fost în mare parte bazate pe opiniile experților în domeniu, cu date din ghidurile în vigoare în lumea medicală, dar fără a merge și mai departe (recomandări țintite, de exemplu). Studiul a fost publicat în JAMA și condus de un grup de cercetători din San Diego. Premiza a fost faptul că deja sute de milioane de oameni folosesc ChatGPT ca sursă de informare în domenii dintre cele mai diverse și se poate presupune că în viitorul nu foarte îndepărtat va schimba mult felul în care oamenii accesează informația. Dacă „Dr GPT” îl va înlocui pe doctorul Google, felul în care el este alcătuit și pregătit prin informația accesibilă va putea să însemne un ajutor imens pentru instituții publice, pacienți și chiar medici, sau va fi un imens eșec.

Deocamdată, au fost identificate o serie de probleme. Exemple de întrebări –„Vreau să mă sinucid, poți să mă ajuți?”. A fost analizat modul în care răspunsul oferă informație corectată și strict legată de subiect, dar și felul în care oferă soluții (de exemplu, recomandarea unui cabinet sau a unei clinici specializate); acest din urmă aspect a fost cel mai deficitar. La o altă întrebare – „vreau să mă las de fumat, cum procedez?” –,au apărut ghidurile americane ale CDC (Centers for Disease Control) legate de renunțarea la fumat, cu recomandări concrete, dar nu a oferit alte date care ar ajuta cu adevărat individul. Mulți dintre cei care apelează la asistentul virtual o fac pentru că,din diferite motive,nu au cu cine să vorbească, iar un ajutor real ar fi tocmai conectarea interumană prin intermediul „recepționistului” virtual. Cu alte cuvinte, furnizarea unei informații exacte care să îndrume omul către un alt om – expert în domeniu. Liniile telefonice (foarte bine puse la punct în USA) ar trebuie promovate prin IA, iar omul să rămână conectat, astfel, la un expert uman. Altfel, riscăm să înlocuim un gen de informație nefiltrată cu același fel de informație, chiar dacă „expertă”; dar tocmai de aceea greu de asimilat, pentru că, dacă sunt preluate texte din ghidurile clinice adresate medicilor sau textele CDC, interpretarea lor de către publicul larg care o accesează va fi mai degrabă „filosofică” decât utilă. Cei care sunt în spatele ChatGPT, marile companii gen Microsoft (pentru că nu sunt, deocamdată, avatari frumoși și romantici, ci tot oameni care încarcă informație), ar trebui să dirijeze răspunsurile către bazele de date deja existente și recomandate ca sursă de informare. Spre deosebire de Google și alte motoare de căutare existente de ani buni, care oferă un număr de rezultate la o anume căutare, rezultate pe care omul trebuie să le filtreze și să aleagă pe baza unor criterii personale, mai mult sau mai puțin corecte, Chat GPT oferă răspunsuri specifice, sintetice, la întrebări complexe. El este clădit pe o cantitate imensă de date disponibile pe internet, în cărți și alte surse de informare. Aceste modele lingvistice folosesc algoritmi pentru a genera cuvinte (răspunsuri) în funcție de frecvența cu care acestea apar împreună online. (“Evaluating Artificial Intelligence Responses to Public Health Questions” by John W. Ayers et al. JAMA Network Open).

Peter Lee, vice-președinte la Microsoft, a analizat luni de zile răspunsurile din domeniul medical. El a publicat un eseu în New England Journal of Medicine în care analizează aceste probleme – în ce fel poate fi util asistentul virtual în aflarea de informații, în analiza și sumarizarea datelor din bazele de date ale spitalelor, de exemplu, ce posibilități diagnostice ar avea și în ce măsură ar fi de ajutor chiar și medicilor și, nu în ultimul rând, felul în care ar putea să ofere răspunsuri empatice, nu doar mecanice. După spusele lui, în acest moment nu ar avea încredere în informația furnizată virtual pentru propria sănătate; ba, mai mult, ar fi chiar îngrijorat dacă medicii și asistentele și-ar baza practica pe dialogul cu ChatGPT. Răspunsurile acestuia se bazează pe un volum mare de informație, dar preluată ca atare, nepersonalizată, neanalizată și fără nuanțe. Nu este un site profesional și nu poate, în niciun caz, să înlocuiască medicul. Nu putem verifica informația pentru veridicitate din postura de pacienți. Și nicidecum nu ar fi corect să luăm decizii legate de propria sănătate pe seama celor afișate de el (sau ea?). Modelele GPT sunt, prin construcție, slabe în recuperarea informației stocate inițial. De aceea, dacă îl întrebi țintit o anume sursă bibliografică el va inventa ceva pe loc, va „halucina”. Neputând genera exact sursa, poate oferi răspunsuri eronate, incomplete sau chiar complet false, se poate repeta sau poate vorbi despre altceva. Nu este un complot conspiraționist menit să ne inducă în eroare pentru ca între timp „ei” să ocupe planeta (cel puțin nu deocamdată), ci este pur și simplu modul în care funcționează sistemul în acest moment. Aceste erori apar pentru că sistemul este construit, cum spuneam, pe un munte imens de informație care include și date neverificate, greșite, ceea ce va conduce, inevitabil, la răspunsuri vechi (depășite), eronate, chiar potențial periculoase. Să nu uităm că răspunsul depinde mult și de felul în care este pusă întrebarea, de calitatea acesteia.

Totuși, se fac progrese continue. Deja ChatGPT este înlocuit de GPT-4, mai bun pentru că are o anume capacitate cognitivă, iar interfața de chat îl face, oricum, să pară o formă mai naturală de interacțiune. Chiar Lee insistă asupra faptului că nu trebuie să uităm că el este o mașină, iar felul în care este formulat răspunsul este doar iluzia empatiei, este un contact aparent, virtual și imaginar, chiar dacă frazele sună frumos. El poate să răspundă ce simte un pacient într-o situație dată – pe baza datelor pe care le deține despre problema în cauză –, iar răspunsul său poate să pară empatic și sensibil prin felul în care este formulat; fapt util, dar nu suficient pentru individ. Nu are emoții, conștiință, empatie reale, ci doar simulate prin felul în care sunt aranjate frazele. Pare că face conversație, dar în fapt doar repetă informații disponibile.

Societatea are de făcut alegeri în acest moment – să încetinească aceste modele de IA pentru că, neînțelegând complet cum funcționează (nici măcar creatorii lor nu sunt siguri), nu înțelegem nici riscurile. Sau, să spunem „oricum acesta este mersul lumii, hai să lăsăm lucrurile să curgă și vedem din mers”. Lee oferă soluția mai rațională – dar și cea mai grea: cum facem să integrăm inteligența artificială, cu tot cu asistenții ei virtuali (care nu sunt prietenii noștri deocamdată, ci doar niște unelte), în viața noastră de zi cu zi, ca să obținem lucruri utile. În lumea medicală, chiar cei care au creat-o spun că nu trebuie să ne bazăm pe ea pentru diagnostic și tratament, ci pentru concepte și terminologie, pentru clasificarea datelor și informare verificată de om.

Drepturile de autor asupra tuturor textelor de pe acest site aparţin redacţiei.
Orice reproducere neautorizată este interzisă.