Hallucinations about hallucinations, or anthropomorphization of AI systems. Part 2
Krzysztof Michalik
9/4/20244 min czytać


One my question and a painfully "honest" answer from ChatGPT
As in a fair trial, the floor should always be given to the "accused", so I did. I asked ChatGPT directly why it hallucinates and got an answer, the content of which honestly did not surprise me. This answer should, however, dispel some illusions as to the nature of these so-called hallucinations, suspicions of consciousness, and also arouse reflection, reflection on the level of trust in the answers generated by such systems, sometimes solutions to problems, including computer programming. Below is my question and answer:
Me: Why do your answers often contain so-called hallucinations?
ChatGPT: "Hallucinations" in the context of language models like mine refer to situations in which I generate answers that are false, inaccurate, or have no basis in the available data. There are several reasons why this can happen:
Statistical nature of the model: I operate by predicting the next words based on patterns in the massive text datasets I was trained on. Sometimes these patterns can lead to the generation of information that sounds plausible but is not based on reality.
Lack of full understanding of context: Although I can analyze and process information, my "understanding" is limited to patterns and statistics, not a real understanding of the world. This can lead to answers that are logical from the perspective of the structure of the language, but incorrect or made up.
Training data deficiencies: During training, I was exposed to a huge amount of information, but not all of it was accurate or up-to-date. Sometimes the answers may be based on incorrect data or incomplete information, leading to "hallucinations".
Attempting to provide answers: I am designed to be helpful and provide answers even when I do not have complete information. This can lead to situations where I "guess" the answer based on available patterns, sometimes resulting in incorrect results.
Generating creative answers: I often try to generate answers that are interesting and helpful, which can lead to random information that is not supported by the facts.
Models are being developed to minimize these problems through better training, adding fact-checking mechanisms, and more advanced methods of managing context. However, it is always worth approaching the generated answers critically and verifying them, especially in the context of important decisions. End of ChatGPT answer.
To this I will only add - dear ChatGPT - it is not "Lack of full understanding of the context:", you used a euphemism, it is a full (complete) lack of understanding of the text. You simply do not understand (like all AI systems) not 1 word, not 1 sentence, you mechanically process them like a very complicated but nevertheless deterministic automaton.
PL
Jedno moje pytanie i szczera do bólu odpowiedź ChatGPT
Tak jak w uczciwym procesie sądowym, głos należy zawsze oddać obwinionemu, więc oddałem. Zapytałem wprost ChatGPT dlaczego halucynuje i dostałem odpowiedź, której treść szczerze mówiąc mnie nie zaskoczyła. Ta odpowiedź powinna natomiast pozbawić niektóre osoby złudzeń co do natury tych tzw. halucynacji, podejrzenia świadomości, a także wzbudzić zastanowienie, refleksję nad poziomem zaufania do generowanych przez tego typu systemy odpowiedzi, czasami rozwiązań problemów, w tym takich jak programowanie komputerów. Niżej moje pytanie i odpowiedź:
Autor (K.M.): Dlaczego twoje odpowiedzi zawierają często tzw. halucynacje?
ChatGPT: "Halucynacje" w kontekście modeli językowych, takich jak ja, odnoszą się do sytuacji, w których generuję odpowiedzi, które są nieprawdziwe, nieścisłe, lub nie mają podstaw w dostępnych danych. Istnieje kilka powodów, dla których takie zjawiska mogą występować:
Statystyczna natura modelu: Działam na zasadzie przewidywania kolejnych słów na podstawie wzorców występujących w ogromnych zbiorach danych tekstowych, na których byłem trenowany. Czasem te wzorce mogą prowadzić do generowania informacji, które brzmią wiarygodnie, ale nie są oparte na rzeczywistości.
Brak pełnego zrozumienia kontekstu: Mimo że potrafię analizować i przetwarzać informacje, moje "zrozumienie" jest ograniczone do wzorców i statystyk, a nie faktycznego rozumienia świata. To może prowadzić do odpowiedzi, które są logiczne z punktu widzenia struktury języka, ale niepoprawne lub zmyślone.
Niedoskonałości danych treningowych: W trakcie treningu byłem narażony na ogromne ilości informacji, ale nie wszystkie z nich były dokładne lub aktualne. Czasem odpowiedzi mogą być oparte na błędnych danych lub niepełnych informacjach, co prowadzi do "halucynacji".
Próba dostarczenia odpowiedzi: Zostałem zaprojektowany tak, aby być pomocny i dostarczać odpowiedzi, nawet jeśli nie mam pełnych informacji. To może prowadzić do sytuacji, w których "domyślam się" odpowiedzi, bazując na dostępnych wzorcach, co czasem kończy się niepoprawnym rezultatem.
Generowanie kreatywnych odpowiedzi: Często staram się generować odpowiedzi, które są interesujące i pomocne, co może prowadzić do przypadkowych informacji, które nie mają pokrycia w faktach.
Pracuje się nad rozwijaniem modeli, aby minimalizować te problemy, poprzez lepsze szkolenie, dodawanie mechanizmów sprawdzania faktów, oraz bardziej zaawansowane metody zarządzania kontekstem. Mimo to, zawsze warto podchodzić do generowanych odpowiedzi krytycznie i weryfikować je, zwłaszcza w kontekście ważnych decyzji. Koniec odpowiedzi ChatGPT.
Do tego dodam jedynie – drogi ChacieGPT - to nie „brak pełnego zrozumienia kontekstu:”, użyłeś eufemizmu, to Pełny brak zrozumienia tekstu. Ty po prostu nie rozumiesz (jak wszystkie systemy AI) ani 1 słowa, ani 1 zdania, mechanicznie je przetwarzasz jak bardzo skomplikowany ale jednak deterministyczny automat.
_____________________
Credit: Picture - https://pl.dreamstime.com/psychodelic-trippy-lsd-lub-magiczne-grzyby-halucynacje-hippie-koncepcja-projektowanie-halucynacji-generatywna-ai-image275418770



