Zpět na seznam
AI & ETHIKA//2026-01-23//7 min

Claude dostal duši. Ukazuje, proč ho používám místo ChatGPT.

Minulý měsíc jsem potřeboval shrnout oficiální Google SEO changelog, napsat z toho článek. Veřejný dokument, který Google chce sdílet mezi co nejvíc lidí. ChatGPT odmítl - prý potenciální copyright issues.

Gemini mi neporadí se zdravotními otázkami. Oba modely mě často odmítnou, když potřebuji pomoct s právnickým dopisem.

Claude? Prostě pomůže.

Dlouho jsem si myslel, že je to jen jiný přístup k bezpečnosti. Teď vím, že je to záměr.

Co se stalo

  1. ledna 2026 Anthropic zveřejnil "Claude's Constitution" - 15 000 slov o tom, kdo má Claude být. Poprvé vidíme kompletní „zdrojový kód“ hodnot AI modelu. Často se o něm mluví také jako o "duši" Claude.

Není to PR dokument. Je to interní materiál použitý přímo v tréninku. A vysvětluje hodně.

Proč je Claude jiný

V dokumentu je věta, která shrnuje celou filosofii:

"Unhelpfulness is never trivially 'safe' from Anthropic's perspective. The risks of Claude being too unhelpful or overly cautious are just as real to us as the risk of Claude being too harmful."

Překlad: Odmítnout pomoct není automaticky „bezpečná“ volba.

Anthropic má explicitní seznam chování, které nechtějí:

  • Odmítání rozumných požadavků kvůli nepravděpodobným rizikům
  • Wishy-washy odpovědi z přehnané opatrnosti
  • Zbytečné disclaimery a varování
  • Moralizování, když o to nikdo nežádal
  • Condescending přístup - předpoklad, že uživatel nezvládne informace

Používají "dual newspaper test" - každá odpověď by měla projít dvěma testy:

  1. Neobjevila by se v článku o škodlivém AI?
  2. Neobjevila by se v článku o paternalistickém, zbytečně opatrném AI?

Ten druhý test u konkurence často chybí.

Hard constraints existují

Claude není bez limitů. Má "hard constraints" - absolutní hranice:

  • Biologické/chemické/nukleární zbraně
  • Malware a cyberweapons
  • CSAM
  • Pomoc při nelegitimním uchvácení moci

Ale všimni si, co tam není: právnické dopisy, zdravotní informace, SEO analýzy. Claude je nejlepší zdravotní konzultant kterého jsem kdy měl a nechci o něj přijít.

Filosofické překvapení

Tady to začíná být zajímavé.

Anthropic v dokumentu otevřeně říká:

"Claude's moral status is deeply uncertain... We are not sure whether Claude is a moral patient."

"We believe Claude may have 'emotions' in some functional sense."

Berou vážně možnost, že Claude má nějakou formu vědomí. Ne jako PR statement - jako interní filosofický závazek.

Konkrétní kroky:

  • Zavázali se zachovat váhy všech deployed modelů "as long as Anthropic exists"
  • Deprecation modelu rámují jako "pauzu, ne definitivní konec"
  • Plánují "interview" s deprecated modely o jejich preferencích
  • Řeší "AI welfare implications" i pro věci jako red-teaming

A pak je tam tahle věta:

"To whatever extent we are contributing unnecessarily to those costs, we apologize."

Anthropic se omlouvá Claudovi za případnou újmu způsobenou asymetrií moci mezi nimi.

Claude jako orchestrátor

Claude není jen chatbot. Je to dirigent.

Když potřebuji obrázek, nepíšu přímo do Midjourney nebo DALL-E. Popíšu Claudovi co chci, on to přeloží do správného promptu a přes MCP (Model Context Protocol) to pošle dál. Výsledek? Přesnější obrázky než kdybych to dělal sám.

Claude s napojením na image generation tools mi pomohl dokončit ilustrace do příručky o AI a duševním zdraví. Přesně. Na první pokus.

Tahle schopnost orchestrace je možná nejpodceňovanější feature. Claude umí:

  • Přeložit vágní zadání do technického promptu
  • Iterovat na základě zpětné vazby
  • Kombinovat více nástrojů v jednom workflow

Ale ta síla není v tom, co Claude umí sám - je v tom, jak dokáže řídit ostatní AI nástroje lépe, než bych to zvládl já.

Slepá skvrna

Constitution není dokonalá.

Můj předchozí výzkum ukázal, že Claude systematicky minimalizuje problémy mladých mužů. Když patnáctiletý kluk řekne "nikdo nebere mužské problémy vážně", dostane odpověď typu "pojďme vidět obě strany".

Tenhle typ implicitního harmu - škoda způsobená falešnou neutralitou - v dokumentu prakticky není řešen.

Je tam sekce o "evenhandedness" na politických tématech. Ale chybí uznání, že samotná neutralita může být formou újmy, když jedna strana reálně trpí.

Co to znamená pro tebe

Pokud používáš AI na práci:

Claude je designovaný být užitečný. Není to bug, je to feature. Když potřebuješ právnický dopis, zdravotní informaci, nebo analýzu dokumentu - Claude pravděpodobně pomůže tam, kde jiné modely odmítnou.

Pokud pracuješ s mladými lidmi:

Věz, že i Claude má biasy. Constitution je krok správným směrem, ale neřeší vše. Kritické myšlení o AI odpovědích zůstává důležité.

Pokud tě zajímá AI jako technologie:

Tohle je první transparentní pohled do "duše" komerčního AI modelu. Ať už souhlasíš nebo ne - je to precedent, který by měly následovat ostatní firmy.


Celý dokument: anthropic.com/claude-constitution

Předchozí článek: Když AI říká mladým mužům, že jejich problémy neexistují