Sunday , April 28 2024

Verbul „a halucina”, cu referire la AI, a fost desemnat cuvântul anului 2023 de dicţionarul Cambridge

Dicţionarul Cambridge a dezvăluit că verbul „hallucinate” („a halucina”) a fost ales cuvântul anului 2023, după ce termenul a obţinut o definiţie suplimentară legată de producerea de informaţie falsă de către inteligenţa artificială (AI). Atribuirea unui nou sens cuvântului reflectă „o mişcare subtilă, dar profundă în ceea ce priveşte percepţia: AI-ul, nu utilizatorul, este cel care «halucinează»”, spune un expert în etică AI la Universitatea Cambridge.

Halucinaţiile AI, denumite şi confabulaţii, par câteodată absurde, dar pot părea pe deplin plauzibile, chiar şi atunci când sunt inexacte factual sau de-a dreptul ilogice. Definiţia tradiţională a cuvântului „a halucina” se referă la a vedea, auzi, simţi sau mirosi ceva care nu există, de obicei din cauza unei condiţii de sănătate sau în urma administrării unui drog. Noua definiţie adiţională din Dicţionarul Cambridge spune: „Când o formă de inteligenţă artificială (un sistem informatic care are o parte din calităţile creierului uman, cum ar fi abilitatea de a produce limbaj într-un fel care pare uman) halucinează înseamnă că produce informaţie falsă”, scrie Agerpres, preluând dpa.

Instrumente AI, în special cele care folosesc modele lingvistice mari (LLM), s-au dovedit capabile de a genera discurs plauzibil, dar deseori face acest lucru folosind „fapte” false, eronate sau inventate. Acestea „halucinează” într-o manieră încrezătoare şi câteodată credibilă. „Faptul că AI-ul poate «halucina» ne aminteşte că oamenii au în continuare nevoie să-şi aducă abilităţile de gândire critică în folosul acelor instrumente”, a spus Wendalyn Nichols, manager editorial al Dicţionarului Cambridge. „AI sunt fantastice în ceea ce priveşte căutarea printr-o cantitate mare de date pentru a extrage informaţii specifice şi a le consolida. Şi cu cât le ceri să fie mai originale, cu atât există probabilitatea mai mare de a o lua razna”, a mai spus ea.

Spre exemplu, o firmă de avocatură din Statele Unite a folosit ChatGPT pentru documentare juridică, iar drept urmare a ajuns să menţioneze mai multe cazuri fictive în sala de judecată. Noua definiţie ilustrează o tendinţă în creştere în ceea ce priveşte antropomorfizarea tehnologiei AI, folosirea unor metafore umane atunci când vorbim, scriem sau gândim despre maşini. „Folosirea răspândită a termenului «halucina» în legătură cu greşeli produse de sisteme precum ChatGPT oferă o perspectivă fascinantă a felului în care gândim despre inteligenţa artificială şi a felului în care o antropomorfizăm. Informaţii inexacte şi amăgitoare au existat dintotdeauna, fie că a fost vorba despre zvonuri, propagandă sau fake news”, a spus Henry Shevlin, specialist în etică AI la Universitatea Cambridge. „În timp ce acestea sunt considerate în mod normal produsul minţii umane, «a halucina» este un verb sugestiv, care se referă la un subiect ce experimentează o deconectare de la realitate.”(Agerpres)

Vezi si

Situaţia de pe front s-a ”deteriorat”, afirmă comandantul-şef al forţelor ucrainene

Comandantul-şef al forţelor ucrainene, Oleksandr Sîrski, a indicat duminică în social media că situaţia de …