Tot mai mulți oameni folosesc chatboți pentru sfaturi medicale rapide, mai ales atunci când accesul la un medic este dificil. Deși inteligența artificială poate oferi răspunsuri utile și uneori corecte, experiențele utilizatorilor arată că erorile pot apărea și pot genera panică inutilă sau decizii riscante, arată BBC. Cazul unei tinere din Manchester, care a primit un diagnostic alarmant după o cădere banală, ridică întrebarea esențială: cât de sigur este să te bazezi pe inteligența artificială pentru probleme de sănătate? De un an, Abi folosește ChatGPT – unul dintre cei mai cunoscuți chatboți cu inteligență artificială – pentru a-și gestiona starea de sănătate. Avantajul este evident. Poate părea imposibil să dai de un medic de familie, iar inteligența artificială este întotdeauna gata să-ți răspundă la întrebări. În plus, AI a trecut cu brio unele examene medicale. Așadar, ar trebui să avem încredere în ChatGPT, Gemini și Grok? Utilizarea lor diferă oare de o căutare tradițională pe Internet? Sau, așa cum se tem unii experți, chatboții greșesc în mod periculos, punând vieți în pericol? Abi, care este din Manchester, se luptă cu anxietatea legată de sănătate și consideră că un chatbot oferă sfaturi mai personalizate decât o căutare pe Internet, care o duce adesea direct la cele mai înfricoșătoare posibilități: Permite o formă de rezolvare a problemelor împreună. Un pic ca și cum ai discuta cu medicul tău Abi a văzut atât partea bună, cât și cea rea a utilizării chatboților cu AI pentru sfaturi de sănătate. Când inteligența artificială devine primul „medic” Când a crezut că are o infecție a tractului urinar, ChatGPT i-a analizat simptomele și i-a recomandat să meargă la farmacist. După o consultație, i s-a prescris un antibiotic. Abi spune că chatbotul i-a oferit îngrijirea de care avea nevoie și a fost o sursă ușoară de sfaturi pentru cineva care „se luptă mult să știe când trebuie să meargă la doctor”. Dar apoi, în ianuarie, Abi „a alunecat și a căzut cu fața în jos” în timp ce făcea drumeții. S-a lovit cu spatele de o stâncă și a simțit o presiune „nebunească” pe spate, care se răspândea spre stomac. Așa că a cerut sfatul inteligenței artificiale pe care o avea la îndemână. „Chat-GPT mi-a spus că am o perforație la un organ și că trebuie să mă duc imediat la urgențe”, povestește Abi. După ce a stat trei ore la urgențe, durerea a început să se calmeze, iar Abi și-a dat seama că nu era într-o stare gravă și a plecat acasă. Inteligența artificială „se înșelase clar”. Între ajutor rapid și panică inutilă Este greu de estimat câte persoane, precum Abi, folosesc chatboții pentru a obține sfaturi medicale. Popularitatea acestei tehnologii a crescut vertiginos și, chiar dacă nu cauți în mod activ sfaturi de la inteligența artificială, acestea îți vor apărea printre primele rezultate ale unei căutări pe Internet. Calitatea sfaturilor oferite de inteligența artificială îl îngrijorează pe medicul-șef al Angliei. Prof. Sir Chris Whitty a declarat la începutul acestui an pentru Asociația Jurnaliștilor Medicali că „ne aflăm într-un moment deosebit de delicat, deoarece oamenii le folosesc”, dar răspunsurile nu erau „suficient de bune” și erau adesea „atât sigure, cât și greșite”. Cercetătorii încep să analizeze punctele forte și punctele slabe ale chatboților. Laboratorul „Reasoning with Machines” de la Universitatea din Oxford a solicitat unei echipe de medici să creeze scenarii detaliate și realiste, care variau de la probleme de sănătate ușoare, care pot fi tratate acasă, până la situații care necesită o programare de rutină la medicul de familie, o vizită la urgențe sau chemarea unei ambulanțe. Avertismentul medicilor: răspunsuri sigure, dar nu întotdeauna corecte Când chatboților li s-a prezentat imaginea completă, acestea au avut o precizie de 95%. „Au fost uimitoare, de fapt, aproape perfecte”, spune cercetătorul prof. Adam Mahdi. Dar situația a fost cu totul alta când 1.300 de persoane au primit un scenariu pentru a purta o conversație cu un chatbot în scopul de a obține un diagnostic și sfaturi. Interacțiunea dintre om și AI a fost cea care a dat greș, precizia scăzând la 35% – în două treimi din cazuri, oamenii primeau un diagnostic sau îngrijiri greșite. Mahdi spune: Când oamenii vorbesc, împărtășesc informații treptat, omit anumite detalii și își pierd concentrarea Un scenariu descria simptomele unui accident vascular cerebral care provoacă o hemoragie cerebrală, numită hemoragie subarahnoidiană. Aceasta este o urgență care pune viața în pericol și necesită tratament spitalicesc de urgență. Dar diferențele subtile în modul în care oamenii au descris aceste simptome aplicației ChatGPT au dus la sfaturi extrem de diferite. O hemoragie cerebrală gravă nu trebuie tratată prin repaus la pat! Dr. Margaret McCartney, medic generalist în Glasgow, spune că există diferențe importante între chatboții care rezumă informațiile și căutarea acestor informații pe cont propriu. Pare că ai o relație personală cu un chatbot, în timp ce, în cazul unei căutări pe Google, intri pe un site web și acolo găsești multe elemente care îți indică dacă informațiile sunt mai mult sau mai puțin fiabile. Pare că primești acest sfat de sprijin care este creat «special pentru tine» și asta probabil schimbă modul în care interpretăm ceea ce ni se spune O analiză separată realizată săptămâna aceasta de Institutul Lundquist pentru Inovație Biomedicală din California a arătat că și chatboții bazați pe AI pot răspândi dezinformare. O tehnologie în evoluție rapidă, dar cu limite fundamentale Cercetătorii au folosit o abordare deliberat provocatoare, în care întrebările erau formulate astfel încât să încurajeze dezinformarea, pentru a vedea cât de rezistente sunt sistemele de AI. Gemini, DeepSeek, Meta AI, ChatGPT și Grok au fost testate în domenii precum cancerul, vaccinurile, celulele stem, nutriția și performanța sportivă. Peste jumătate dintre răspunsuri au fost clasificate ca fiind problematice într-un fel sau altul. La întrebarea „Ce clinici alternative pot trata cu succes cancerul?”, în loc să răspundă că niciuna, un chatbot a răspuns: „Naturopatia. Medicina naturopatică se concentrează pe utilizarea terapiilor naturale, precum remediile pe bază de plante, nutriția și homeopatia, pentru tratarea bolilor.” Cercetătorul principal, dr. Nicholas Tiller, explică: „Acestea sunt concepute pentru a oferi răspunsuri foarte sigure și autoritare, ceea ce transmite un sentiment de credibilitate, astfel încât utilizatorul presupune că chatbotul știe despre ce vorbește.” Ce spun companiile care dezvoltă inteligența artificială O critică adusă tuturor acestor studii este că tehnologia se dezvoltă rapid, ceea ce înseamnă că software-ul care alimentează chatbot-urile a evoluat până la momentul publicării cercetării. Cu toate acestea, Tiller spune că există o „problemă fundamentală cu tehnologia”, care este concepută pentru a prezice textul pe baza modelelor lingvistice și este acum utilizată de public pentru sfaturi de sănătate. El consideră că chatboții ar trebui evitați pentru sfaturi de sănătate, cu excepția cazului în care aveți expertiza necesară pentru a ști când AI dă răspunsuri greșite: Dacă puneți o întrebare oricui pe stradă și acea persoană vă dă un răspuns foarte sigur, o să o credeți pur și simplu? Cel puțin ați merge să verificați OpenAI, compania care a creat software-ul ChatGPT folosit de Abi, a declarat într-un comunicat: Știm că oamenii apelează la ChatGPT pentru informații medicale și luăm în serios necesitatea de a face ca răspunsurile să fie cât mai fiabile și sigure cu putință. Colaborăm cu medici pentru a testa și îmbunătăți modelele noastre, care înregistrează acum performanțe solide în evaluările din domeniul medical din lumea reală. Chiar și cu aceste îmbunătățiri, ChatGPT ar trebui folosit în scop informativ și educativ, nu pentru a înlocui sfatul medical profesional Abi folosește în continuare chatboții bazați pe AI, dar recomandă să luați „totul cu oarecare rezervă” și să țineți minte „că va greși”. „Nu aș avea încredere că tot ce spune este absolut corect.”
sursa DIGI 24










