walmart.ca
18.08.23, 04:21
Fakty - generalnie - nie mają wpływu na naszą opinie.
W 1975 roku naukowcy ze Stanford zaprosili grupę studentów do udziału w badaniu dotyczącym samobójstw. Przedstawiono im pary listów samobójczych. W każdej parze jedna notatka została ułożona przez przypadkową osobę, a druga przez osobę, która następnie odebrała sobie życie. Następnie poproszono studentów o rozróżnienie autentycznych listów od fałszywych.
Niektórzy odkryli, że mają talent do takiego zadania. Z dwudziestu pięciu par listów dwadzieścia cztery razy prawidłowo zidentyfikowali ten prawdziwy. Inni odkryli, że są beznadziejni. Zidentyfikowali tylko dziesięć prawdziwych.
Jak to często bywa w przypadku badań psychologicznych, cała konfiguracja była fikcja. Chociaż połowa notatek rzeczywiście była autentyczna – uzyskano je z biura koronera Los Angeles – wyniki były fikcyjne. Studenci, którym powiedziano, że prawie zawsze mają rację, nie byli przeciętnie bardziej spostrzegawczy niż ci, którym powiedziano, że przeważnie się mylą.
W drugiej fazie badania oszustwo zostało ujawnione. Studentom powiedziano, że prawdziwym celem eksperymentu było zbadanie ich reakcji na 'przekonanie', że mają rację lub nie'. (Okazało się, że to również było oszustwem). Na koniec poproszono ich o oszacowanie, ile listów samobójczych właściwie skategoryzowali a ile ich zdaniem przeciętny student jest w stanie odróżnić poprawnie. W tym momencie stało się coś ciekawego. Studenci z grupy z 'najlepszymi wynikami' powiedzieli, że w rzeczywistości wyszli całkiem nieźle — znacznie lepiej niż przeciętny uczeń — chociaż, jak właśnie im powiedziano, nie mieli podstaw, by w to wierzyć. I odwrotnie, ci, którzy zostali przydzieleni do grupy z niskimi wynikami, powiedzieli, że ich zdaniem wypadli znacznie gorzej niż przeciętny uczeń – wniosek, który był równie bezpodstawny.
„Raz uformowane” — zauważyli sucho badacze — „wrażenia są niezwykle trwałe”.
W swej nowej książce „The Enigma of Reason” (Harvard) kognitywiści Hugo Mercier i Dan Sperber próbują odpowiedzieć na pytanie: Jak to się stało, że my, ludzie, wydający się normalni i rozsądni, jesteśmy tak często całkowicie irracjonalni, dlaczego jesteśmy wyewoulowani w ten sposób?
(...) Ta 'koślawość' umysłowa, według Merciera i Sperbera, odzwierciedla zadania, do których wyewoluował nasz rozum, czyli uchronienie się przed 'wyślizganiem' przez innych członków naszej grupy. Żyjąc w małych grupach łowców-zbieraczy, nasi przodkowie troszczyli się przede wszystkim o swoją pozycję społeczną i upewniali się, że to nie oni ryzykują życie podczas polowania, podczas gdy inni błąkają się po jaskini. Jasne rozumowanie miało niewielką korzyść, podczas gdy wiele można było zyskać na wygrywaniu argumentów.
Wśród bardzo wielu problemów, którymi nasi przodkowie zupełnie się nie przejmowali, były odstraszające efekty kary śmierci czy idealne atrybuty strażaka. Nie musieli też się zmagać z kwestią sfabrykowanych badań, fałszywymi wiadomościami na FB czy Twitterze. Nic więc dziwnego, że dziś rozum często nas zawodzi. Jak piszą Mercier i Sperber: "Jest to jeden z wielu przypadków, w których środowisko zmieniło się zbyt szybko, by dobór naturalny mógł to dogonić".
(...)
"Rozum jest adaptacją do hiper społecznej niszy, którą ludzie wyewoluowali dla siebie" - piszą Mercier i Sperber. Nawyki umysłu, które wydają się dziwne, głupkowate lub po prostu idiotyczne z "intelektualistowskiego" punktu widzenia, okazują się całkiem sprytne, bo przydatne, gdy patrzy się na nie z perspektywy społecznego "interakcjonisty".
(...)
'Confirmation Bias' to po prostu "Myside Bias". Ludzie nie są ot tak przypadkowo łatwowierni. Jesteśmy całkiem bystrzy w dostrzeganiu słabych punktów w argumentacji innych. Ale prawie zawsze słabe pozycje, na które jesteśmy ślepi, są w naszych własnych argumentach.
Why Facts Don’t Change Our Minds
www.newyorker.com/magazine/2017/02/27/why-facts-dont-change-our-minds