Proč lidé nemění názory ani tváří v tvář důkazům

Český dokument „Velký vlastenecký výlet“ (2025) šokuje diváky, když ukázal, že ani přímá konfrontace s válečnou realitou Ukrajiny nezměnila proruské postoje účastníků. Psychologická a neurovědní analýza odhaluje fascinující mechanismy: kognitivní disonance aktivuje stejné mozkové oblasti jako fyzická bolest, mozek vytváří „neurální filtry“ blokující nepohodlné informace a obhajoba názorů stimuluje centra odměn. Kombinace specifických osobnostních rysů (nízká otevřenost vůči zkušenosti, vysoký neuroticismus, autoritářské rysy), skupinové identity a emočních obran vytváří téměř neprolomitelnou rezistenci vůči faktům. Jak je možné, že lidský mozek dokáže ignorovat tak silné důkazy? Odpověď není v hlouposti nebo zlé vůli. Možná leží v psychologických mechanismech, které všichni máme.

Jak náš mozek brání své názory

Když realita bolí – doslova

Představte si, že celý život věříte, že vaše oblíbená značka auta je nejbezpečnější na světě. Pak vám někdo ukáže crash testy, kde dopadla nejhůř. Ten nepříjemný pocit, který zažíváte? Psychologové mu říkají kognitivní disonance – psychické nepohodlí, když se naše přesvědčení střetne s neslučitelnými fakty.

Co je fascinující – vědci pomocí mozkových skenů zjistili, že když zažíváme tento konflikt, jsou aktivní stejné oblasti mozku, které se aktivují při fyzické bolesti. Není to metafora – náš mozek skutečně vnímá útok na naše přesvědčení jako bolest. A co dělá mozek s bolestí? Snaží se jí zbavit, co nejrychleji to jde.

Mozek má v zásadě tři možnosti, jak se tohoto nepohodlí zbavit. Může změnit názor (což se stává nejméně často), může změnit interpretaci faktů („ty crash testy byly zmanipulované“), nebo může přidat nové důvody, které ospravedlní původní přesvědčení („bezpečnost není všechno, důležitá je také spolehlivost“).

Vidíme jen to, co chceme vidět

Každý z nás má v hlavě jakýsi filtr, který propouští informace potvrzující naše názory a blokuje ty, které jim odporují. Je to trochu jako když fanoušek fotbalového týmu vidí každý faul na svém týmu, ale nevidí fauly, které jeho tým páchá na soupeřích.

Vědci pomocí speciálních přístrojů, které měří mozkovou aktivitu, objevili něco ohromujícího. Když jsme si velmi jistí svým názorem, náš mozek vytváří doslova fyzický filtr. Oblasti mozku zodpovědné za zpracování informací zesilují signály, které potvrzují náš názor, a potlačují ty, které mu odporují. To znamená, že mozek tyto nepohodlné informace doslova „nevidí“ – nejde o vědomé ignorování, ale o automatický proces mimo naši kontrolu.

V praxi to vypadá tak, že když procházíme internetem, automaticky klikneme na články, které podporují náš pohled. Když narazíme na opačný názor, náš mozek okamžitě začne hledat chyby – „ten autor je zaujatý“, „ty údaje jsou staré“, „to je propaganda“. A co je nejhorší – pamatujeme si hlavně ty informace, které nám dávají za pravdu. Když výzkumníci ukázali stejnou zprávu o imigraci lidem s různými politickými názory, každá skupina si zapamatovala úplně jiné věci ze stejného textu.

Obhajoba názorů je jako droga

Vědci zkoumali, co se děje v mozku, když obhajujeme své politické názory. Čekali, že budou aktivní oblasti zodpovědné za logické myšlení. Místo toho se ale aktivovaly úplně jiné části mozku – ty samé, které jsou aktivní, když jíme čokoládu, vyhrajeme peníze nebo máme sex.

Jinými slovy, když obhajujeme své názory a „vyhráváme“ v argumentaci, náš mozek nás za to odměňuje. Vyplavuje stejné chemické látky jako při jiných příjemných aktivitách. Být „v právu“ je doslova návykové. To vysvětluje, proč lidé tráví hodiny v internetových diskusích, přesvědčujíce cizí lidi o svém názoru. Nejde jen o to mít pravdu – jde o ten příjemný pocit, který z toho máme.

Existují dva základní režimy, ve kterých může naše myšlení fungovat. První je režim „chci najít pravdu“ – kdy skutečně hledáme správnou odpověď, ať je jakákoliv. Druhý je režim „chci potvrdit svůj názor“ – kdy už předem víme, jakou odpověď chceme najít, a hledáme důkazy, které ji podpoří. Bohužel, v politických a hodnotových otázkách většinou automaticky přepínáme do druhého režimu.

Paradoxně, chytřejší lidé jsou v tomto často horší než ti méně inteligentní. Proč? Protože mají více mentální munice na obranu svých názorů. Dokážou vymyslet sofistikovanější argumenty, najít složitější vysvětlení, konstruovat propracovanější teorie. Jejich inteligence jim neslouží k hledání pravdy, ale k lepší obraně toho, čemu už věří.

Když fakta způsobí pravý opak

Představte si, že se snažíte někomu vyvrátit konspirační teorii. Předložíte mu fakta, důkazy, logické argumenty. A co se stane? Místo aby změnil názor, začne své přesvědčení hájit ještě zuřivěji. Psychologové tomuto jevu říkají „backfire effect“ – efekt zpětného výstřelu.

Dlouho se myslelo, že je to běžný jev. Ale novější výzkumy ukázaly překvapivou věc: extrémní backfire effect je vlastně docela vzácný. Většinou se stane něco jiného – lidé prostě zůstanou při svém. Fakta je neposílí v jejich mylném přesvědčení, ale ani je nepřesvědčí o opaku. Prostě je ignorují.

Když už k backfire efektu dojde, je to obvykle u velmi emocionálních témat a u lidí s extrémními názory. Je to jako když se snažíte někoho přesvědčit, že jeho milovaný fotbalový tým není nejlepší – čím víc argumentů předložíte, tím víc se bude bránit.

Proč záleží na tom, ke komu patříme

Jsme součástí skupiny

Všichni patříme k různým skupinám – jsme Češi, fanoušci určitého klubu, voliči určité strany, obyvatelé určitého města. A tyto skupiny nejsou jen něco, k čemu „patříme“ – ony se stávají součástí toho, kým jsme. Když někdo kritizuje naši skupinu, cítíme to jako osobní útok.

Náš mozek automaticky rozděluje svět na „my“ a „oni“. Je to evolučně starý mechanismus, který kdysi pomáhal přežít – držet se své tlupy bylo otázkou života a smrti. Dnes už o život nejde, ale mozek funguje pořád stejně. Automaticky věříme „našim“ a nedůvěřujeme „jejich“.

Výzkumy to pěkně dokumentují. Když vidíme, že člen „naší“ skupiny udělal něco špatného, automaticky hledáme omluvy – „měl špatný den“, „byl vyprovokovaný“, „není to tak zlé, jak to vypadá“. Když to samé udělá někdo z „jejich“ skupiny, je to důkaz jejich špatného charakteru.

V kontextu proruských postojů to funguje tak, že lidé, kteří se identifikují s určitou verzí slovanské vzájemnosti nebo s kritikou Západu, vnímají jakoukoliv kritiku Ruska ne jako objektivní hodnocení faktů, ale jako útok „jich“ (Západ, liberálové, pražská kavárna) na „nás“ (obyčejné lidi, Slovany, ty, kdo vidí pravdu). Fakta o válečných zločinech pak nejsou neutrální informace, ale zbraně v kulturní válce.

Když se všichni kolem shodnou

Fenomén informačních bublin existoval vždycky – lidé se přirozeně sdružují s podobně smýšlejícími. Ale sociální média tento jev exponenciálně zesílila. Algoritmy Facebooku, YouTube a dalších platforem jsou navržené tak, aby nám ukazovaly obsah, který nás udrží co nejdéle na jejich stránkách. A co nás drží nejlépe? Obsah, se kterým souhlasíme, nebo který nás rozčiluje u „těch druhých“.

Když se skupina podobně smýšlejících lidí pravidelně schází – ať už fyzicky nebo online – dochází k zajímavému jevu. Jejich názory se nejen utvrdí, ale posunou se k extrémnějším pozicím. Psychologové tomu říkají skupinová polarizace. Původně umírnění kritici vlády se stanou radikálními odpůrci. Mírní sympatizanti Ruska se stanou zapálenými obhájci.

Jak to funguje? Představte si, že máte mírnou nedůvěru k médiím. Připojíte se ke skupině podobně smýšlejících. Každý den vidíte desítky příspěvků o tom, jak média lžou. Lidé sdílejí články, které to potvrzují. Kdo by řekl něco jiného, je vyhozen nebo umlčen. Po měsících v této bublině už nevěříte vůbec ničemu z „mainstreamových“ médií. A jakákoliv informace odtud je automaticky lež.

Studie analyzující miliony uživatelů Facebooku ukázala znepokojivý vzorec: lidé, kteří věří konspiračním teoriím, tráví 80 % času konzumací obsahu, který jejich názory potvrzuje. U běžné populace je to „jen“ 40 %. Čím déle člověk žije v takové bublině, tím víc se jeho realita vzdaluje od objektivní skutečnosti.

Kdo je nejvíce zranitelný: Osobnostní faktory

Někteří lidé jsou prostě jinak nastavení

Ne všichni jsme stejně náchylní věřit dezinformacím nebo lpět na neměnných názorech. Psychologové identifikovali několik typů osobnosti, které jsou obzvláště zranitelné.

První skupinu tvoří lidé, kteří špatně snášejí nejistotu a nejednoznačnost. Svět je pro ně příliš složitý a chaotický, potřebují jasné odpovědi – černá nebo bílá, dobro nebo zlo, přítel nebo nepřítel. Šedé zóny je děsí. Tito lidé inklinují k jednoduchým vysvětlením složitých problémů. Dezinformace jim často nabízejí právě to, po čem touží – jasného viníka (USA, EU, Soros) a jednoduché řešení.

Druhou skupinu tvoří úzkostní lidé. Strach a nervozita je nutí hledat vysvětlení, která jim dají pocit kontroly. Konspirační teorie paradoxně úzkost snižují – je lepší věřit, že za vším stojí zlý plán než přijmout, že svět je chaotický a nikdo ho pořádně neřídí. Když věříte, že za všechno může skupina mocných, máte aspoň iluzi, že víte, co se děje.

Třetí skupinu tvoří lidé s nízkou důvěrou v ostatní. Jsou přesvědčeni, že všichni lžou, všichni manipulují, každý sleduje jen vlastní zájmy. Ironicky, tato nedůvěra je paradoxně vede k tomu, že věří alternativním zdrojům, které jim říkají přesně to – že všichni ostatní lžou. „Všichni lžou, jen my vám říkáme pravdu“ je jejich oblíbené poselství.

Potřeba být výjimečný

Další významnou skupinu tvoří lidé s narcistickými rysy – ne v klinickém smyslu, ale lidé s nadměrnou potřebou cítit se výjimečnými. Věřit „oficiální verzi“ je pro ně příliš obyčejné. Oni vidí hlubší pravdu, kterou běžní lidé nevidí. Jsou součástí malé skupiny „probuzených“, kteří prohlédli systémové lži.

Tento pocit výjimečnosti je psychologicky velmi odměňující. Představte si, že celý život jste průměrní – průměrná práce, průměrný život, nic zvláštního. A najednou objevíte komunitu, kde jste jedním z mála, kdo „vidí pravdu“. Najednou nejste průměrní – jste výjimeční, chytřejší než „ovce“, které věří médiím.

Líní myslet, ne hloupí

Možná nejpřekvapivější zjištění posledních let: náchylnost k dezinformacím nesouvisí s inteligencí, ale s tím, jak moc se nám chce přemýšlet. Psychologové zjistili, že lidé, kteří věří fake news, nejsou hloupější – jsou jen línější zapojit analytické myšlení.

Když vidíme informaci, která potvrzuje náš názor, prostě ji přijmeme. Neověřujeme zdroj, nekontrolujeme fakta, nepřemýšlíme o alternativních vysvětleních. Je to pohodlné. Naopak když vidíme něco, co odporuje našemu názoru, najednou jsme mistři kritického myšlení – okamžitě vidíme všechny chyby a problémy.

Paradox sebejistoty

Existuje ještě jeden fascinující jev – lidé, kteří o tématu vědí nejméně, jsou často nejsebejistější ve svých názorech. Psycholog Dunning s kolegou Krugerem to popsali na příkladu: když se lidí zeptali na jejich znalosti o tom, jak funguje záchod, ti, kdo tomu rozuměli nejméně, si byli nejjistější, že to vědí dobře. Teprve když je požádali, aby to vysvětlili detailně, uvědomili si, jak málo toho vlastně vědí.

Stejné to je s geopolitikou. Lidé, kteří nedokážou na mapě najít Ukrajinu a neznají základní historické souvislosti, jsou často nejpřesvědčenější o tom, kdo je v konfliktu viník. Jejich neznalost jim paradoxně dává jistotu – nevidí složitosti a nuance, které by jejich jednoduchý obraz světa zkomplikovaly.

Emoce jsou silnější než rozum

„Nebudeš mi říkat, co mám myslet!“

Když na někoho tlačíme, aby změnil názor, často dosáhneme přesného opaku. Psychologové tomu říkají reaktance – je to automatická obranná reakce na vnímané ohrožení svobody. Funguje to jako pružina – čím víc tlačíte, tím větší odpor cítíte.

Představte si, že vám někdo říká: „Musíš uznat, že Rusko je agresor!“ Co se stane? I kdybyste předtím měli pochybnosti, teď cítíte nutkání bránit opačný názor. Ne nutně proto, že byste mu věřili, ale proto, že nechcete, aby vám někdo říkal, co si máte myslet.

V dokumentu to bylo vidět krásně. Samotná premisa cesty – „ukážeme vám pravdu“ – aktivovala obranné mechanismy. Účastníci nevnímali cestu jako příležitost dozvědět se něco nového, ale spíše jako pokus o manipulaci. A proti manipulaci se každý brání.

Když se hroutí váš svět

Naše názory o světě nejsou jen názory – jsou to pilíře, na kterých stojí naše psychická stabilita. Dávají nám pocit, že svět dává smysl, že víme, kdo jsme a kam patříme. Když jsou tyto pilíře ohroženy, reagujeme, jako by byl ohrožen náš život.

To není přehnané – výzkumy ukázaly, že když lidem připomenete jejich smrtelnost, automaticky se více drží svých přesvědčení a jsou nepřátelštější k těm, kdo je nesdílejí. Naše světonázory fungují jako psychologická ochrana proti existenciální úzkosti. Vzdát se jich znamená přiznat si vlastní zranitelnost a konečnost.

Pro někoho, kdo desetiletí věřil určitému obrazu světa – například že Západ je zkažený a Rusko brání tradiční hodnoty – přiznání, že se mýlil, není jen změna názoru. Je to psychologický kolaps. Co když se mýlil i v dalších věcech? Co když celý jeho pohled na svět byl chybný? To je příliš děsivé na to, aby to mozek připustil.

Příliš pozdě na změnu

Čím déle v něco věříme, tím těžší je to opustit. Je to jako s propadlým filmem nebo knihou – investovali jste čas a energii, tak to dokončíte, i když vás to nebaví. Psychologové tomu říkají „sunk cost fallacy“ – klam utopených nákladů.

V kontextu názorů to znamená, že člověk, který dvacet let četl určité zdroje, chodil na určité weby, diskutoval s určitými lidmi, má obrovskou psychologickou investici ve svém světonázoru. Přiznat, že to bylo špatně, by znamenalo přiznat, že promarnil dvacet let života. To je psychologicky téměř nemožné.

Navíc jsou tu sociální náklady. Co by řekli přátelé z diskusního fóra? Co rodina, které jste léta vysvětlovali, jak to „doopravdy“ je? Změnit názor by znamenalo nejen přiznat vlastní omyl, ale možná i ztratit sociální kontakty, které jsou na těchto názorech postavené.

Ruská propaganda: Vědecky navržená manipulace

Zahlcení lží

Analytici z americké RAND Corporation popsali ruský propagandistický model přiléhavou metaforou – „firehose of falsehood“ (požární hadice lží). Nejde o náhodné lhaní, ale o sofistikovanou strategii, která systematicky využívá psychologické mechanismy, které jsme popsali.

Princip je jednoduchý: zahlťte informační prostor tolika verzemi „pravdy“, že lidé rezignují na hledání té skutečné. Když o jedné události existuje deset různých vysvětlení, mozek to vzdá a přijme to, které nejlépe sedí do jeho předchozího přesvědčení.

Rychlost je klíčová – být první s vysvětlením události, i když je lživé. První informace, kterou člověk slyší, vytváří v mozku jakousi kotvu. Všechny následující informace jsou poměřovány s touto první verzí. I když přijdou důkazy o opaku, první dojem už je vytvořený.

Opakování funguje jako psychologický trik. Když něco slyšíme opakovaně, mozek to začne vnímat jako pravdivější – i když víme, že je to nesmysl. Výzkumníci tento „iluzorní efekt pravdy“ dokumentovali mnohokrát. Stačí lež opakovat a postupně se stává „pravdou“.

Množství kanálů vytváří iluzi konsensu. Když stejnou informaci slyšíte z různých zdrojů – z alternativního webu, od kamaráda na Facebooku, v řetězovém emailu, od politika v televizi – mozek automaticky předpokládá, že musí být pravdivá. Vždyť to říkají všichni!

Cesty k efektivní změně

Co nefunguje (a proč)

Tradiční fact-checking, tedy vyvracení nepravdivých informací fakty, má téměř nulový efekt. Výzkumy ukázaly, že průměrný efekt je tak malý, že je prakticky zanedbatelný. Proč? Protože aktivuje všechny obranné mechanismy, které jsme popsali – kognitivní disonanci, motivated reasoning, psychologickou reaktanci.

Přímá konfrontace je ještě horší. Říct někomu „jsi hloupý, když tomu věříš“ jen posílí jeho identifikaci se skupinou podobně smýšlejících. Zahlcení fakty vede k přetížení a vypnutí. A ultimáta typu „buď změníš názor, nebo…“ spolehlivě vyvolají odpor a zatuhnutí postojů.

Co může fungovat

Nejslibnější strategií je prevence – učit lidi rozpoznávat manipulativní techniky dřív, než se s nimi setkají. Je to jako očkování – vystavíte člověka oslabené formě manipulace a vysvětlíte, jak funguje. Když se s ní pak setká v reálném životě, rozpozná ji a je vůči ní odolnější.

Výzkumy ukázaly, že krátká videa, která učí rozpoznávat techniky jako emocionální manipulace, falešné dilema nebo vytváření obětního beránka, významně zlepšují schopnost lidí identifikovat dezinformace. A co je důležité – funguje to i na dezinformace, které ještě neviděli.

Empatický přístup funguje lépe než konfrontace. Když se lidé cítí respektovaní a hodnotní, jsou otevřenější novým informacím. Začít rozhovor uznáním („chápu, proč máte obavy z toho, co se děje ve světě“) funguje lépe než okamžité vyvracení.

Příběhy fungují lépe než fakta. Když slyšíme konkrétní příběh konkrétního člověka, je těžší ho odmítnout jako „propagandu“. Osobní svědectví aktivuje jiné části mozku než abstraktní statistiky – oblasti pro empatii a sociální porozumění.

Závěr: Poučení pro nás všechny

Dokument „Velký vlastenecký výlet“ nám ukázal něco důležitého: tři účastníci nemusí být nutně hloupí nebo zlí. Jejich mozky fungovaly přesně tak, jak fungují mozky nás všech. Když všichni tři odmítli změnit názory navzdory důkazům, byla to kombinace všech mechanismů, které byly v textu popsány.

Nejdůležitější poselství tohoto textu není, že jsou někteří lidé „ztracení“. Je to připomenutí, že všichni máme tyto mechanismy. Všichni jsme do jisté míry citliví vůči dezinformacím, které cílí na naše hodnoty a emoce. Jediný rozdíl je v tom, jaké konkrétní dezinformace jsme ochotni přijmout.

Současně výzkum ukazuje, že změna je možná, i když obtížná. Vyžaduje trpělivost, empatii, respekt a sofistikované strategie, které pracují s psychologickými mechanismy, ne proti nim. Vyžaduje také systémové změny – mediální gramotnost, kritické myšlení v edukativním procesu, regulaci sociálních médií, podporu kvalitní žurnalistiky.

V době, kdy dezinformace ohrožují samotné základy demokratické společnosti, pochopení psychologie přesvědčení není akademickým cvičením, ale existenciální nutností. Dokumenty jako „Velký vlastenecký výlet“ nám připomínají, jak snadné je ztratit kontakt s realitou, když se staneme obětí vlastních psychologických mechanismů.


Reference

Festinger, L. (1957). A theory of cognitive dissonance. Stanford University Press.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175-220.

Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480-498.

Nyhan, B., & Reifler, J. (2010). When corrections fail: The persistence of political misperceptions. Political Behavior, 32(2), 303-330.

Wood, T., & Porter, E. (2019). The elusive backfire effect: Mass attitudes‘ steadfast factual adherence. Political Behavior, 41(1), 135-163.

Tajfel, H., & Turner, J. C. (1979). An integrative theory of intergroup conflict. In W. G. Austin & S. Worchel (Eds.), The social psychology of intergroup relations (pp. 33-47). Brooks/Cole.

Brehm, J. W. (1966). A theory of psychological reactance. Academic Press.

Dunning, D., & Kruger, J. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121-1134.

Paul, C., & Matthews, M. (2016). The Russian „firehose of falsehood“ propaganda model: Why it might work and options to counter it. RAND Corporation.

Pennycook, G., & Rand, D. G. (2019). Lazy, not biased: Susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning. Cognition, 188, 39-50.

Roozenbeek, J., & van der Linden, S. (2022). Psychological inoculation improves resilience against misinformation on social media. Science Advances, 8(34), eabo6254.

Velký vlastenecký výlet [Film]. (2025). Česká televize.


Přejít nahoru