Al·lucinació artificialEn intel·ligència artificial (IA), una al·lucinació o al·lucinació artificial és una resposta segura d'una IA que no sembla estar justificada per les seves dades d'entrenament.[1] Per exemple, un chatbot al·lucinant sense coneixement dels ingressos de Tesla podria triar internament un nombre aleatori (com ara "13.600 milions de dòlars") que el chatbot consideri plausible i, a continuació, insisteixi falsament i repetidament que els ingressos de Tesla són de 13.600 milions de dòlars. sense cap signe de consciència interna que la figura era producte de la seva pròpia imaginació.[2] Aquests fenòmens s'anomenen "al·lucinacions", en analogia amb el fenomen de les al·lucinacions de la psicologia humana. Tingueu en compte que, mentre que una al·lucinació humana és una percepció per part d'un humà que no es pot associar sensiblement amb la part del món extern que l'ésser humà està observant actualment directament amb els òrgans dels sentits, una al·lucinació d'IA és, en canvi, una resposta segura d'una IA que no es pot fonamentar. en qualsevol de les seves dades de formació.[3] L'al·lucinació de la intel·ligència artificial va guanyar protagonisme al voltant del 2022 juntament amb el llançament de certs models de llenguatge grans (LLM) com ara ChatGPT. Els usuaris es van queixar que aquests robots sovint semblaven incrustar "sociopàticament" i inútilment falsedats aleatòries de son plausible dins del seu contingut generat.[4] Un altre exemple d'al·lucinació en intel·ligència artificial és quan la IA o el chatbot obliden que són un i diuen ser humans.[5] El 2023, els analistes consideraven que les al·lucinacions freqüents eren un problema important en la tecnologia LLM.[6] Es considera que hi ha moltes raons possibles perquè els models de llenguatge natural al·lucinen dades.[7] Per exemple:
Referències
|