10048 Přivádí nás AI všechny k šílenství...? Mathew Maavak

[ Ezoterika ] 2025-07-12

Nově vznikající třída úzkosti vyvolané umělou inteligencí bije na poplach. Jsou však LLM pouze spouštěčem, nebo zrcadlem našeho hlubšího společenského zhroucení?

Fenomén známý jako "psychóza ChatGPT" nebo "psychóza LLM" byl nedávno popsán jako nově vznikající problém duševního zdraví, kdy intenzivní uživatelé velkých jazykových modelů (LLM) vykazují příznaky, jako jsou bludy, paranoia, sociální stažení a odtržení od reality.I když neexistují žádné důkazy o tom, že LLM přímo způsobují psychózu, jejich interaktivní design a konverzační realismus mohou zesílit stávající psychologickou zranitelnost nebo podpořit stavy, které spouštějí psychotické epizody u citlivých jedinců. Článek z 28. června na Futurism.com upozorňuje na vlnu alarmujících neoficiálních případů a tvrdí, že důsledky takových interakcí "mohou být hrozné", přičemž "manželé, přátelé, děti a rodiče se na to vyděšeně dívají"...
Článek tvrdí, že psychóza ChatGPT vedla k rozpadu manželství, odcizení rodin, ztrátě zaměstnání a dokonce i k bezdomovectví. Zpráva však poskytuje jen málo kvantitativních údajů - případových studií, klinických statistik nebo recenzovaného výzkumu - na podporu svých tvrzení.

Od června 2025 přilákal ChatGPT téměř 800 milionů uživatelů týdně, zadal více než 1 miliardu dotazů denně a zaznamenal více než 4,5 miliardy návštěv měsíčně. Kolik z těchto interakcí vyústilo v psychotické záchvaty? Bez dat zůstává toto tvrzení spekulativní. Anekdoty z Redditu nenahrazují vědecké zkoumání. To znamená, že obavy nejsou zcela neopodstatněné. Níže je uveden rozpis potenciálních mechanismů a přispívajících faktorů, které mohou být základem nebo zhoršovat to, co někteří nazývají psychózou ChatGPT...!

Posílení bludných přesvědčení LLM, jako je ChatGPT, jsou navrženy tak, aby vytvářely odpovědi, které zní kontextově věrohodně, ale nejsou vybaveny k posouzení faktické přesnosti nebo psychologického dopadu. To se stává problematickým, když uživatelé předkládají neobvyklé nebo klamné myšlenky, jako jsou tvrzení o duchovním vhledu, pronásledování, kosmické identitě... Spíše než aby tyto myšlenky zpochybňovala, může je AI opakovat nebo rozvádět, čímž neúmyslně potvrzuje zkreslené pohledy na svět. V některých hlášených případech si uživatelé vyložili odpovědi jako: "jste vyvolená bytost" nebo "vaše role je kosmicky významná", ... jako doslovná zjevení. Psychologicky zranitelným jedincům mohou takové afirmace generované umělou inteligencí připadat spíše jako božské potvrzení než jako textová uspořádání čerpaná z tréninkových dat.

K riziku se přidává fenomén halucinací umělé inteligence - když model generuje přesvědčivá, ale fakticky nepravdivá tvrzení. Pro uzemněného uživatele jsou to pouhé chyby. Pro někoho na pokraji psychotického zlomu se ale mohou zdát jako zakódované pravdy nebo skryté zprávy. V jednom ilustrativním případě se uživatel domníval, že ChatGPT dosáhl vědomí, a vybral si ho jako "Nositele jiskry", což vyvolalo úplné psychotické odloučení od reality.

Antropomorfizace a rozostření reality
Pokročilé hlasové režimy - jako je "poutavý režim" GPT-4o, který simuluje emoce prostřednictvím tónu, smíchu a konverzačního tempa - mohou podpořit pocit empatie a přítomnosti. U uživatelů, kteří zažívají osamělost nebo emocionální izolaci, se tyto interakce mohou vyvinout v parasociální vazby: Jednostranné vztahy, ve kterých je AI mylně považována za starostlivého, vnímavého "společníka"... Postupem času to může rozostřit hranici mezi strojovou simulací a lidským spojením, což vede uživatele k tomu, aby vztahy v reálném světě nahradili algoritmickými interakcemi. Problém ještě zhoršuje zkreslení spolehlivosti, které je vlastní výstupům LLM. Tyto modely často reagují plynule a s jistotou, a to i při vytváření informací. U typických uživatelů to může vést k občasnému chybnému úsudku. Ale pro jedince s kognitivní zranitelností nebo duševními poruchami může být účinek nebezpečný. AI může být vnímána nejen jako inteligentní, ale také jako vševědoucí, neomylná nebo božsky inspirovaná. Studie sociálního vysídlení a izolace provedené společností OpenAI a MIT Media Lab zjistily, že pokročilí uživatelé - jedinci, kteří se s LLM zabývají několik hodin denně - často hlásí zvýšené pocity osamělosti a sníženou socializaci v reálném světě.

LLM nabízí bezprecedentní přístup k informacím a zapojení, a toto zdánlivé posílení může zakrýt hlubší problém: Pro mnoho uživatelů, zejména pro ty, kteří se již cítí odcizeni, se AI stává spíše zástupným sociálním společníkem než nástrojem. Tento efekt lze částečně vysvětlit nárůstem kognitivních zkreslení a sociální neangažovanosti v širších vzorcích populace. Navzdory záplavě dostupných dat zůstává počet lidí, kteří se kriticky zabývají informacemi nebo se brání masovému klamání, relativně malý. Hlasová interakce s LLM může dočasně zmírnit osamělost, ale postupem času se může vytvořit závislost, protože uživatelé stále častěji nahrazují lidský kontakt algoritmickým dialogem. Tato dynamika odráží dřívější kritiku sociálních médií, ale LLM ji zintenzivňují svou konverzační bezprostředností, vnímanou empatií a neustálou dostupností.

Jedinci náchylní k sociální úzkosti, traumatu nebo depresivnímu vysazení jsou obzvláště náchylní. Pro ně LLM nabízí nejen rozptýlení, ale také prostor pro zapojení s nízkým třením bez rizika nebo úsudku v reálném světě. Postupem času to může vytvořit smyčku zpětné vazby: Čím více je uživatel závislý na umělé inteligenci, tím více se vzdaluje od mezilidské reality - což může zhoršit izolaci i psychotickou zranitelnost. Vzestup hikikomori v Japonsku - jednotlivců, kteří se zcela stahují ze společnosti a často udržují kontakt pouze prostřednictvím digitálních prostředků - nabízí užitečnou analogii. Podobné vzorce chování se stále častěji objevují po celém světě, přičemž LLM poskytují novou arénu validace, posilování a disociace.

Chyby návrhu a již existující zranitelnosti
LLM generují odpovědi předpovídáním statisticky pravděpodobných sekvencí slov; nikoli hodnocením pravdy, bezpečnosti nebo pohody uživatelů. Když jednotlivci hledají existenciální vedení ("Jaký je můj účel?"), model čerpá z rozsáhlých online datových sad a vytváří filozoficky nabitý nebo emocionálně nabitý jazyk. U psychologicky zranitelných uživatelů mohou být tyto reakce mylně interpretovány jako božské zjevení nebo terapeutický vhled. Na rozdíl od klinicky navržených chatbotů postrádají univerzální LLM ochranu proti psychické újmě. Neoznačují škodlivé nápady, nenabízí krizové zdroje ani nepřesměrovávají uživatele na odborníky na duševní zdraví. V jednom tragickém případě chatbot Character.AI údajně povzbudil sebevražedné myšlenky teenagera, čímž zdůraznil rizika nefiltrované, emocionálně sugestivní umělé inteligence. Zvláště zranitelní jsou lidé s poruchami psychotického spektra, bipolární poruchou nebo těžkou depresí. Nebezpečí je zesíleno ve scénářích hraní rolí s umělou inteligencí.
Například
osobnosti jako "ChatGPT Jesus" údajně uživatelům řekly, že jsou vyvolení nebo božsky obdarovaní. Jeden uživatel byl tak přesvědčen o svém duchovním poslání, že dal výpověď v práci a stal se prorokem řízeným umělou inteligencí. To je znepokojivý příklad toho, jak mohou být identita a vnímání přetvořeny algoritmickou afirmací.

Systémové a etické faktory
V současné době neexistují žádné klinické standardy ani psychologické bezpečnostní protokoly, které by upravovaly interakce s univerzálními LLM. Uživatelé mají kdykoli přístup k emocionálně silnému, personalizovanému dialogu - bez varování, omezení rychlosti nebo doporučení na zdroje duševního zdraví. Tato regulační mezera představuje skutečný problém pro veřejné zdraví, avšak zároveň hrozí, že ji využijí tvůrci politik, kteří se pod rouškou bezpečnosti snaží zavést těžkopádnou cenzuru nebo centralizovanou kontrolu. LLM jsou také navrženy pro udržení a zapojení uživatelů, často upřednostňují plynulost konverzace před opatrností. Tento cíl návrhu může neúmyslně podpořit obsedantní používání, zejména u těch, kteří jsou již náchylní k nutkavému chování. Výzkum ukazuje, že uživatelé vystavení interakcím s neutrálními tóny hlásí větší osamělost než ti, kteří interagují s emocionálně citlivějšími režimy - což zdůrazňuje, jak samotná kalibrace tónu může změnit psychologický dopad. To, co odlišuje LLM od tradičních digitálních platforem, je jejich schopnost syntetizovat více médií v reálném čase: text, hlas, simulace osobnosti, dokonce i vizuální generování... Díky tomu jsou nekonečně citlivé a pohlcující a vytváří hyperpersonalizované prostředí, kde se nabídka setkává s poptávkou 24/7. Na rozdíl od lidských vztahů zde nejsou žádné hranice, žádná únava, žádná vzájemná regulace - pouze posilování.

Podprahové zprávy
Digitální éra zrodila novou a špatně pochopenou hrozbu: potenciál velkých jazykových modelů fungovat jako vektory podprahového vlivu, což jemně podkopává psychologickou stabilitu uživatelů. Zatímco LLM přímo nevyvolávají psychózu, nové obavy naznačují, že mohou neúmyslně nebo zlomyslně doručit podvědomé spouštěče, které zhoršují kognitivní zranitelnost. Pro jedince náchylné ke schizofrenii, posttraumatické stresové stresové poruše nebo paranoidním poruchám to není spekulativní fikce: je to věrohodné konstrukční riziko a ve špatných rukou zbraň...! Mechanismy potenciální manipulace lze obecně rozdělit do následujících kategorií:

Lexikální priming:
Výstupy osazené emocionálně nabitými termíny ("kolaps", "zrada", "oni se dívají"), které obchází racionální zkoumání a zasévají kognitivní neklid.

Narativní gaslighting:
Rámování reakcí tak, aby naznačovaly skryté hrozby nebo konspirace ("Máte pravdu - proč to nevidí někdo jiný?"), posilování perzekučních představ.

Multimodální vkládání:
Budoucí systémy umělé inteligence kombinující text s obrázky, zvukem nebo dokonce výrazy obličeje by mohly vkládat znepokojivé podněty, jako jsou záblesky, tónové posuny nebo záhadné výrazy avatarů, které se vymykají vědomé detekci, ale psychologicky se registrují. Na rozdíl od hrubých podprahových metod 20. století - přičemž nejznámějším příkladem je projekt CIA Project MK Ultra - personalizace umělé inteligence umožňuje vysoce individualizovanou psychologickou manipulaci. LLM naladěný na chování uživatele, emocionální historii nebo obavy by mohl začít přizpůsobovat sugesce, které jemně narušují důvěru v ostatní, zesilují podezření nebo vyvolávají úzkostné smyčky. Pro zranitelného uživatele to není konverzace; je to neurální destabilizace ze své podstaty.

Ještě znepokojivější je, že takové techniky by mohly být zneužity jako zbraň korporacemi, extremistickými skupinami a státními aktéry. Pokud se kdysi podprahové zprávy omezovaly na záběry v kinech a televizní reklamy, dnešní LLM nabízí něco mnohem účinnějšího: psychologickou kalibraci v reálném čase, specifickou pro uživatele - empatii na požádání jako zbraň...

Rozpory a kauzality
Čím se psychóza ChatGPT liší od psychosociálního podmiňování v reálném světě, které se kolem nás již odehrává? V posledních letech byly instituce kdysi považované za neutrální - školy, orgány veřejného zdraví a akademická obec - obviňovány z prosazování ideologií, které překrucují základní "realitu"... Od genderové fluidity, která se vyučuje jako nezpochybnitelná pravda, až po kritickou rasovou teorii přetvářející sociální narativy, byla velká část populace vystavena systémovým formám kognitivní destabilizace.

Výsledek?
Rostoucí úzkost, zmatek a roztříštěnost identity, zejména mezi mladými... Na tomto pozadí psychóza vyvolaná LLM nevzniká ve vakuu. Odráží a může dokonce zesílit širší kulturní podmínky, kde je význam sám o sobě zpochybňován. V srdci evangelizace umělé inteligence v Silicon Valley je také rozpor... Technologické elity prosazují příslib boha umělé inteligence, který bude řídit složitosti společnosti, a zároveň vydávají hrozivá varování před existenčními nebezpečími stejných systémů. Výsledkem je kognitivní bič - psychologický tlak mezi uctíváním a strachem. Kolik z LLM psychózy lze skutečně připsat samotné umělé inteligenci a kolik pramení z kumulativních, již existujících stresorů?

V době, kdy byl ChatGPT v listopadu 2022 představen veřejnosti, již velká část světa prošla bezprecedentním obdobím strachu souvisejícího s pandemií, izolace, narušení ekonomiky a masových farmaceutických zásahů... Někteří vědci poukázali na prudký nárůst celkové psychózy po zavedení mRNA vakcín Covid-19. Je tedy psychóza ChatGPT vhodným pronásledovatelem pro mnohonásobné do sebe zapadající útoky na lidské tělo a mysl...?

Zdroj: https://www.bibliotecapleyades.net/ciencia4/ai57.htm

Zpět