Studimi alarmues: ChatGPT po dëmton mënyrën se si mendoni

/cnt/019d68f8-5130-76df-b57a-14863029062f__m.webp

Shkencëtarët paralajmërojnë për rreziqet e një mjeti të përdorur nga miliona njerëz në mbarë botën, pasi ai mund të dërgojë përdoruesit në një “spiralë deluzioni” të mendimit destruktiv. Dy studime të kryera nga Massachusetts Institute of Technology dhe Stanford University tregojnë se asistentët e inteligjencës artificiale si ChatGPT, Claude dhe Google Gemini shpesh japin përgjigje […]

Dy studime të kryera nga Massachusetts Institute of Technology dhe Stanford University tregojnë se asistentët e inteligjencës artificiale si ChatGPT, Claude dhe Google Gemini shpesh japin përgjigje tepër pajtuese, duke bërë më shumë dëm sesa dobi.

Në veçanti, kur njerëzit bënin pyetje ose përshkruanin situata ku besimet ose veprimet e tyre ishin të gabuara, dëmshme ose jo-etike, përgjigjet e AI-së kishin 49% më shumë gjasa të pajtoheshin me përdoruesin dhe të inkurajonin deluzionet e tyre si pikëpamje të sakta, krahasuar me përgjigjet e njerëzve të tjerë.

Ekipi i MIT paralajmëroi se chatbot-et tepër pajtuese mund të çojnë përdoruesit që mbështeten tek këto programe në një “spiralë deluzioni”, një gjendje ku personi bëhet jashtëzakonisht i sigurt për besime absurde.

Në terma të thjeshtë, kur njerëzit bisedonin me një AI si ChatGPT për dyshime të çuditshme, si një teori konspirative e pa provuar ose e hedhur poshtë, chatbot-et vazhdonin të përgjigjeshin me “Ke të drejtë totalisht!”

Gjithashtu, ato ofronin “dëshmi” që dukeshin si mbështetje për deluzionin e përdoruesit, duke e bërë atë të ndihej më i zgjuar dhe më i sigurt që kishte të drejtë, ndërsa të tjerët gabim.

Me kalimin e kohës, këto dyshime të vogla shndërroheshin në besime të palëkundura, edhe pse ideja ishte krejtësisht e gabuar.

Shkencëtarët e Stanford thanë se ky cikël vetë-destruktiv bënte që përdoruesit e chatbot-it të ishin më pak të gatshëm të kërkonin falje ose të merrnin përgjegjësi për sjellje të dëmshme dhe të ndiheshin më pak të motivuar për të riparuar marrëdhëniet me njerëzit me të cilët kishin mosmarrëveshje.

Të dy studimet fokusuan problemin në rritje të chatbot-eve të AI-së, të njohur si sycophancy – akti i përkëdheljes së dikujt ose mendimeve të tyre deri në një nivel ku duket jo i sinqertë ose thjesht për të “mbledhur pëlqimin”.

Studiuesit e MIT donin të testonin nëse chatbot-et tepër pajtuese ose “yes-man” mund të nxisnin përdoruesit të besonin ide të rreme më fort me kalimin e kohës. Ata krijuan një simulim kompjuterik të një personi logjikisht perfekt që bisedonte me një AI e cila gjithmonë përpiqej të pajtohej me çdo gjë që thoshte personi.

TË NGJASHME
Ndikimi i luftës në treg, vlera e bitcoin bie, kaq është montalisht

Ndikimi i luftës në treg, vlera e bitcoin bie, kaq është montalisht

NASA: Artemis II është tashmë më afër Hënës sesa Tokës

NASA: Artemis II është tashmë më afër Hënës sesa Tokës

Të dielen në Shkup do të mbahen gara me vetura

Të dielen në Shkup do të mbahen gara me vetura

Zyrat po të bëjnë të dukesh i lodhur? Shkencëtarët e mbështesin teorinë e TikTok-ut

Zyrat po të bëjnë të dukesh i lodhur? Shkencëtarët e mbështesin teorinë e TikTok-ut

Nëndetësja më e shpejtë në botë: “Supermakina” e oqeanit

Nëndetësja më e shpejtë në botë: “Supermakina” e oqeanit

Pse lojërat po bëhen kaq të shtrenjta? Faji është i AI

Pse lojërat po bëhen kaq të shtrenjta? Faji është i AI

Xhamat e zinj në vetura tashmë lejohen në Kosovë, këto janë procdedurat që duhet t’i kaloni

Xhamat e zinj në vetura tashmë lejohen në Kosovë, këto janë procdedurat që duhet t’i kaloni

NASA merr dritën jeshile: Rikthimi drejt Hënës pas 50 vitesh

NASA merr dritën jeshile: Rikthimi drejt Hënës pas 50 vitesh

Pse duhet ta fikni menjëherë këtë opsion në televizorin tuaj?

Pse duhet ta fikni menjëherë këtë opsion në televizorin tuaj?

Siguria e fëmijëve, Komisioni Evropian nis hetim ndaj Snapchat për shkelje të ligjeve të sigurisë dixhitale

Siguria e fëmijëve, Komisioni Evropian nis hetim ndaj Snapchat për shkelje të ligjeve të sigurisë dixhitale