Hallucinations about hallucinations, or anthropomorphization of AI systems. Part 1
Krzysztof Michalik
8/22/20243 min czytać


English version:
In the past, to have hallucinations without any medical cause, psychoactive substances such as LSD were taken, currently this substance is ignorance. This condition does not escape even some specialists in this field or rather those perceived as such by some media.
For me, the term AI hallucination is an obvious abuse of language, anthropomorphism, or an attempt to give human characteristics to an unconscious entity such as AI systems. In my opinion, AI anthropomorphization is potentially dangerous and/or harmful to users, because it strengthens the illusion of perceiving AI as a conscious, creative entity, which it is not and will not be in the foreseeable future (in my opinion, never!). I will elaborate on this topic in subsequent parts of this post on this AI blog.
In short, in "classical" computer science (I mean without AI methods and tools), especially in programming or systems design methodology, this feature of some AI systems would be simply called an error in operation, a fault, a defect, etc., and would be treated in such a way. Generally, it can be caused, for example, by the lack of reliable validation, proper verification, testing. errors related to the process of training AI systems.
In particular, we would consider verification and testing for errors specific to AI systems based on neural networks related to the learning process, e.g. correctness of data/training sets, correctness of architecture, network topology or parameters and hyperparameters of the neural network.
Nobody treats erroneous results in conventional computer programs, e.g. calculating factorial values, as hallucinations or a manifestation of creativity, let alone absurd searches for manifestations of consciousness. Similarly - AI systems are not magic, for now they are deterministic automata that often solve difficult problems using specific methods and techniques known to us - sometimes also complex and difficult, certainly for laymen in the field of computer science and AI. Would we sacrifice our health, lives (e.g. in computer-assisted healthcare), or even would we agree to let "hallucinating" AI systems write computer programs on their own?
PL
Dawniej by mieć halucynacje, bez przyczyn chorobowych, zażywano substancje psychoaktywne np. LSD, obecnie tą substancją jest ignorancja. Nie omija ta przypadłość nawet niektórych specjalistów w tej dziedzinie lub raczej tak postrzeganych przez niektóre media. Termin halucynacji AI jest dla mnie oczywistym nadużyciem językowym, antropomorfizmem czyli próbą nadawania cech ludzkich nieświadomemu bytowi jakimi są systemy AI. Według mnie antropomorfizacja AI jest potencjalnie niebezpieczna i/lub szkodliwe dla użytkowników, wzmacnia bowiem iluzję w postrzeganiu AI jako świadomego, kreatywnego bytu, jakim nie jest i nie będzie w dającej się przewidzieć przyszłości (wg mnie nigdy!). Szerzej rozwinę to na w kolejnych częściach tego artykułu na moim blogu o AI.
Najkrócej rzecz ujmując, w „klasycznej” informatyce (tj. bez AI), w programowaniu, projektowaniu , tę cechę niektórych systemów nazwano by po prostu błędem działania, usterką, wadą itp., spowodowanym np. brakiem rzetelnej walidacji, weryfikacji czy ogólniej przetestowania czy innym rodzajem błędów projektanckich i programowych oraz związanych z procesem uczenia systemów AI.
W szczególności, bralibyśmy pod uwagę weryfikację i testowanie pod kątem specyficznych dla systemów AI opartych na sieciach neuronowych błędów związanych z procesem uczenia, np. poprawność danych/zbiorów uczących, poprawność architektury, topologii sieci czy parametrów i hiperparametrów sieci neuronowej.
Nikt nie traktuje błędnych wyników w konwencjonalnych programach komputerowych, np. obliczania wartości silni, jako halucynacje czy przejaw kreatywności, nie mówiąc już o doszukiwaniu się przejawów świadomości. Analogicznie - systemy AI to nie magia, póki co to deterministyczne automaty rozwiązujące często trudne problemy z wykorzystaniem konkretnych, znanych nam metod i technik - bywa, że także złożonych i niełatwych, z pewnością dla laików w dziedzinie informatyki i AI. Czy poświęcilibyśmy nasze zdrowie, życie (np. w ramach opieki medycznej wspomaganej przez AI), czy choćby samodzielne pisanie programów komputerowych systemom "halucynującym"?
____________________________
Credit: Picture - https://pl.dreamstime.com/psychodelic-trippy-lsd-lub-magiczne-grzyby-halucynacje-hippie-koncepcja-projektowanie-halucynacji-generatywna-ai-image275418770