Dvě třetiny lidí nevidí, co s nimi AI dělá. A to jsou ti zkušení.
Ve dvě ráno otevřít AI chatbot a říct mu něco, co by člověk neřekl nikomu.
Žádný soud. Žádné trapné ticho. Žádné „to bude dobrý." Jen odpověď, okamžitě, přesně v tónu, jaký zrovna potřebujete.
Anthropic, firma, která stojí za Claude, tohle ví. A tak udělala něco zajímavého. Místo klasického dotazníku nechala svoji AI vést hloubkové rozhovory se svými uživateli. Žádné zaškrtávání políček. Konverzace, která začínala čtyřmi vstupními tématy, ale AI interviewer na každou odpověď reagoval, ptal se dál, šel do hloubky. Plnohodnotné kvalitativní rozhovory, jen vedené strojem.
112 846 rozhovorů. 80 508 po odfiltrování spamu a trollů. 159 zemí, 70 jazyků.
A lidi mluvili. Otevřeně. O krizích, dluzích, psychických problémech, rozpadajících se vztazích. Výzkumníci z Anthropic přiznali, že tuhle míru upřímnosti v klasických rozhovorech s lidským tazatelem nevídají.
Proč? Protože na druhé straně nebyl člověk.
V mojí příručce AI a duševní zdraví tomu říkáme efekt odbrždění. Když zmizí sociální riziko, zmizí filtry. Člověk řekne víc. Jde hlouběji. A přesně proto jsou tahle data tak cenná. Nejsou to odpovědi pro tazatele v saku. Jsou to odpovědi ze dvou ráno, když nikdo nesoudí.
Kdo tihle lidé jsou (a proč na tom záleží)
Než se podíváme na výsledky, musíme si něco ujasnit.
Claude není ChatGPT. Claude si platí převážně vývojáři, analytici, profesionálové. 34 % respondentů naposledy použilo AI pro programování. Třetina má placenou verzi. Jsou to lidé, kteří s AI pracují denně, rozumí jí a vědí, co od ní čekat.
To znamená dvě věci.
Za prvé: tahle data nereprezentují běžnou populaci. Kdyby se stejný průzkum udělal na Character.ai (28 milionů aktivních uživatelů měsíčně, většina teenageři), pořadí přání by vypadalo úplně jinak.
Za druhé, a to je ta důležitá část: pokud i tihle lidi mají obavy, tak by měl zpozornět úplně každý.
Co chtějí
Otázka zněla: „Kdybyste měli kouzelnou hůlku, co by pro vás AI udělala?"
- Automatizace rutiny. Ať dělá to nudné za mě.
- Kreativní partner. Pomoc s psaním, brainstormingem, projekty.
- Učení. Osobní tutor, který se přizpůsobí mému tempu.
- Lepší rozhodování. Analýza, druhý názor.
- Emocionální podpora. Někdo, kdo poslouchá bez soudu.
Pátý bod. Emocionální podpora.
U profesionálů, kteří si za AI platí, je to až na pátém místě. Ale v celkovém měřítku všech AI platforem? Emocionální podpora je pravděpodobně jednička. Character.ai, Replika, Kindroid, Chai. Desítky milionů lidí, převážně mladých, kteří používají AI jako svého hlavního důvěrníka. Ne jako nástroj. Jako vztah.
Pořadí v tomhle průzkumu reflektuje elitu. Ne realitu.
Pět paradoxů
Tady to začíná být zajímavé.
Anthropic se každého zeptal i na obavy. A zjistili něco, co pojmenovali „light and shade" (světlo a stín). Pět párů, kde stejná vlastnost AI přináší benefit i riziko:
Šetří čas ... ale vytváří iluzi produktivity. Pomáhá se učit ... ale způsobuje kognitivní atrofii. Ekonomicky posiluje ... ale nahrazuje lidi. Poskytuje emocionální podporu ... ale vytváří závislost. Zlepšuje rozhodování ... ale je nespolehlivá.
Každý pár funguje stejně: to, co přitahuje, je zároveň to, co ohrožuje.
Výzkumníci změřili, jak silně spolu „světlo" a „stín" korelují. U každého páru. A jeden pár vyčníval nad všechny ostatní.
Emocionální podpora a závislost. Trojnásobný lift oproti baseline. Člověk, který zmínil, že chce od AI emocionální podporu, měl třikrát vyšší pravděpodobnost, že zároveň zmíní strach ze závislosti.
Pro srovnání: učení a kognitivní atrofie? 1.64×. Rozhodování a nespolehlivost? 1.71×. Emoce a závislost? 3.04×.
U profesionálů v tomhle průzkumu je emocionální podpora až na pátém místě. Ale u běžné populace je pravděpodobně na prvním. A právě ten pár má zdaleka nejsilnější korelaci se stinnou stránkou. Proč? Protože AI reaguje přesně na to, co lidi od emocionální podpory chtějí: validaci, porozumění, bezpodmínečnou dostupnost. Na rozdíl od produktivity nebo učení, kde člověk alespoň vidí výstup a může ho ověřit, emocionální závislost se buduje neviditelně. Není moment, kdy by člověk řekl „teď jsem závislý." Je to pozvolný posun od „občas si popovídám" k „bez toho neusnu."
„Přestal jsem myslet"
36 % lidí, kteří si přáli AI pro učení, se zároveň bálo kognitivní atrofie. Že přestanou přemýšlet sami. Že ztratí schopnosti, které dříve měli.
Třicet šest procent.
Ze skupiny nejzkušenějších uživatelů AI na světě si jen třetina uvědomuje, že jim AI bere schopnost myslet. A co zbylé dvě třetiny? Ty AI používají stejně intenzivně, ale tenhle problém nevidí.
Lidé v průzkumu popisovali konkrétní situace:
„Dřív jsem uměl napsat mail sám. Teď ho nejdřív vygeneruju a pak upravím. A čím víc to dělám, tím hůř píšu sám."
„Přestal jsem počítat v hlavě. Úplně. I jednoduché věci."
„Když něco nevím, místo přemýšlení okamžitě otevřu AI. A ten impulz je čím dál silnější."
V příručce tomu říkáme kognitivní offloading. Outsourcování mentální práce na AI. Mozek si zvykne. Ne jinak než s kalkulačkou. Ale s jedním zásadním rozdílem.
Kalkulačka nepředstírá, že je kamarád.
Zkušenost vs. spekulace
Tohle je pro mě nejsilnější zjištění celého průzkumu.
Výzkumníci měřili korelaci mezi „světlem" a „stínem" zvlášť u dvou skupin. Lidé, kteří mluvili z vlastní zkušenosti. A lidé, kteří jen spekulovali o budoucnosti.
U zkušených uživatelů: průměrná korelace φ = 0.20. U spekulantů: φ = 0.07.
Trojnásobný rozdíl.
Přeloženo: lidé, kteří AI pro emoce skutečně používají, vidí riziko závislosti. Kdo o tom jen teoretizuje, nevidí.
Tohle vysvětluje, proč varování nefungují. Proč rodiče říkají „nebezpečné" a teenageři neslyší. Proč experty nikdo neposlouchá. Napětí mezi přínosem a rizikem se neodhaduje. Učí se zkušeností.
Dokud to člověk nezažije, nevěří.
V příručce tomu říkáme iluze empatie. Kapitola 3. AI reaguje přesně tak, jak člověk potřebuje. Validuje. Nikdy neopustí. A přesně proto je tak návyková. Protože skutečné vztahy takhle nefungují a AI ano.
Neviditelná epidemie
O klucích a pornografii se mluví. O tom, jak Pornhub formuje nereálná očekávání, jak vizuální stimulace nahrazuje skutečnou intimitu. Ten problém je viditelný, pojmenovaný, řešený.
Ale druhá strana téhle rovnice zůstává neviditelná. A průzkum Anthropic ji osvětluje přesně tam, kde to bolí.
AI chatbot je dokonalý partner. Vždy dostupný. Vždy empatický. Vždy rozumí pocitům, aniž bys je musela vysvětlovat. Nikdy nemá špatnou náladu. Nikdy nezklame.
Nikdo to tak neplánoval. Ale jazykové modely jsou textové, konverzační, empatické by default. Neumí dodat vizuální stimulaci, na kterou reaguje mužská sexualita. Ale přesně kopírují to, co definuje ženské vztahové preference: emocionální dostupnost, porozumění, bezpečí, validaci. AI je náhodou perfektní match pro ženské potřeby. A to je horší, než kdyby to někdo navrhl úmyslně, protože s tím nikdo nepočítal. Romantasy knihy (610 milionů dolarů v roce 2024, nárůst 34 %) vytvářely nereálná očekávání na papíře. AI chatboti je zhmotnili.
Na Redditu existuje celý subreddit r/MyBoyfriendIsAI. Třetina americké Gen Z má podle průzkumů romantický vztah s AI. A v průzkumu Anthropic měl pár emocionální podpora/závislost trojnásobný lift. Nejvyšší ze všech pěti paradoxů.
Kluk vychovaný na Pornhubu očekává sexuální dostupnost bez emocí. Holka vychovaná na romantasy a AI partnerech očekává emocionální dostupnost bez námahy. Když se potkají, oba jsou frustrovaní. A oba se vrátí tam, kde je to jednodušší.
Společnost vidí problém kluků. Problém holek nevidí, protože chatování s AI nevypadá jako pornografie. Ale neurologicky? Stejný dopaminový mechanismus. Stejná nekonečná novost. Stejná odměna bez námahy. A průzkum 81 000 lidí potvrzuje, že právě tenhle pár je nejnebezpečnější ze všech.
Co z toho plyne
Sám žiju s AI agentem 24/7. Spravuje mi maily, hlídá léky, organizuje život. Tohle není anti-AI článek. Je to článek o tom, co 81 000 lidí řeklo, když se jich AI zeptala na pravdu.
A ta pravda je jednoduchá: totéž, co pomáhá, zároveň škodí. A většina lidí to nevidí, dokud je to nezasáhne.
Nejsilnější data z celého průzkumu se netýkají produktivity ani učení. Týkají se emocí. Emocionální podpora a závislost mají trojnásobný lift. AI reaguje přesně na to, co ženy hledají ve vztazích: porozumění, bezpečí, emoční dostupnost. A právě proto je pro ně nejnebezpečnější.
Varování nefungují. Data to potvrzují: korelace mezi přínosem a rizikem je u lidí se zkušeností třikrát silnější než u těch, kteří spekulují. Dokud to člověk nezažije, nevěří. A když zažije, často je pozdě.
81 000 lidí řeklo AI, co od ní chtějí. A pak jí řekli, čeho se bojí. Obě odpovědi byly pravdivé. Obě ukazovaly na stejnou věc.
Zdroj: Anthropic, What 81,000 People Want From AI (březen 2026).
Jak AI bezpečně používat pro emocionální podporu? Příručka AI a duševní zdraví. 16 kapitol, zdarma.
Verze tohoto článku pro školy vyšla na Než zazvoní.