Dwie karty produktu różnią się tylko językiem: „plecak miejski” kontra „plecak na laptop 15,6″ z ochroną RFID”. Każdy, kto pracuje w marketingu, wie, że te nazwy wywołują zupełnie inne zachowania użytkowników. Dlaczego?
Nie dlatego, że druga oferta jest obiektywnie lepsza, lecz dlatego, że słowa ustawiają mentalną mapę sytuacji: podpowiadają, na co spojrzeć najpierw, które kryteria uznać za ważne i jakie ryzyko wziąć pod uwagę.
Język jako pierwszy filtr decyzji
Język nie determinuje myślenia, ale w zauważalnym stopniu ukierunkowuje je na określone tory — zwłaszcza wtedy, gdy decyzję trzeba podjąć szybko, a informacji jest niewiele (czyli w warunkach niepewności). W kognitywistyce mówi się, że słowa pełnią rolę wstępnych założeń (priorów): są punktem startowym, z którego umysł — a dziś także algorytmy wyszukiwania — rozpoczynają wnioskowanie.
W tym artykule skupiamy się na tym, co współczesna nauka mówi o relacji języka i myślenia: skąd wzięła się hipoteza Sapira–Whorfa, w jakiej wersji przetrwała krytykę, jakie są najmocniejsze i najsłabsze dowody oraz jak rozumieć to w świetle modeli probabilistycznych.
Druga część przekłada te wnioski na praktykę SEO i marketingu internetowego — zwłaszcza w epoce SEO dla AI i generatywnych podsumowań wyników (AI Overviews), gdzie wyszukiwarki działają coraz bardziej „po ludzku”: stawiają i aktualizują hipotezy oraz agregują ogromne zbiory danych, w których odciskają się nasze nieuświadamiane wzorce myślowe.
Część I — Nauka
Hipoteza Sapira–Whorfa: geneza, krytyka i wersja współczesna
Zacznijmy od definicji:
- Relatywizm językowy to pogląd, że język wpływa na myślenie: kieruje uwagę i ułatwia jedne rozróżnienia, utrudnia inne — szczególnie w warunkach niepewności.
- Determinizm językowy to jego najsurowsza, dziś odrzucana wersja: język i jego struktury ograniczają oraz determinują ludzką wiedzę i procesy poznawcze, takie jak kategoryzacja, pamięć czy percepcja.
Obie etykiety upowszechniły się w XX wieku, choć podobne intuicje pojawiały się już wcześniej (od Alexandra von Humboldta po starożytnych, w tym Platona). Wyraźniejsze kontury nadał im złoty okres amerykańskiej antropologii w pierwszej połowie XX wieku. Kierunek lingwistyce antropologicznej wyznaczył Franz Boas, a faktyczne podwaliny pod dzisiejsze rozumienie relatywizmu położyli jego uczeń Edward Sapir (ur. 1884 w dzisiejszym Lęborku, wówczas w Niemczech) oraz Benjamin Lee Whorf, uczeń Sapira.
W telegraficznym skrócie: Sapir twierdził, że język jest „przewodnikiem po rzeczywistości społecznej”, bo porządkuje doświadczenie i nadaje mu akcenty. Whorf rozwinął tę intuicję: strukturę języka traktował jako zestaw nawyków poznawczych, które skłaniają użytkowników do określonych sposobów spostrzegania i wnioskowania. To prace Sapira (lata 20.–30.) i zebrane pośmiertnie eseje Whorfa (Language, Thought, and Reality, 1956) uformowały ideę relatywizmu — przy czym określenie „hipoteza Sapira–Whorfa” ukuto później, by nazwać rodzinę zbliżonych poglądów. Choć badacze spotkali się w 1928 r., a od 1931 r. Whorf uczęszczał na zajęcia Sapira, nie napisali wspólnej pracy i nie byli w pełni zgodni.
Od lat 60. XX wieku najsurowszy, deterministyczny wariant — że język „zamyka” nas w swojej siatce pojęć — był konsekwentnie krytykowany (ani Sapir ani Whorf nie byli zresztą orędownikami tej skrajnej wersji). Równocześnie rozwój psycholingwistyki dostarczył narzędzi do testowania wersji umiarkowanej: że język modyfikuje percepcję i decyzje, zwłaszcza gdy bodźce są niejednoznaczne, a zadanie wymaga szybkich skrótów myślowych (w warunkach niepewności). Współczesne badania wspierają właśnie ten wariant: język nie zniewala myśli, ale systematycznie przesuwa rozkład uwagi, pamięci i preferencji — najsilniej w sytuacjach dwuznacznych i pod presją czasu.
Z takiego spojrzenia na relatywizm językowy wyłaniają się dwa istotne i aktualne wnioski:
- Mechanizm: wpływ języka można wyjaśniać probabilistycznie — słowa pełnią funkcję wstępnych założeń, które modyfikują prawdopodobieństwa przypisywane konkurującym interpretacjom, zanim pojawią się twarde dane.
- Praktyka: ludzie zwykle dochodzą do podobnych konkluzji niezależnie od języka, ale pierwsze kroki — gdzie spojrzą i co uznają za ważne — często zależą od dostępnych słów.
Najmocniejsze dowody: tam, gdzie granice są ostre, słowa „wyostrzają” widzenie
Jeśli chcemy odnaleźć dowody na potwierdzenie tez umiarkowanego relatywizmu językowego, to dobrze zacząć poszukiwania tam, gdzie umysł musi rozstrzygnąć „pomiędzy” — na granicach kategorii. Najbardziej czytelnych potwierdzeń dostarczają badania nad barwami.
W języku rosyjskim istnieją dwa podstawowe leksemy na „niebieski”: goluboy (jasny) i siniy (ciemny). Gdy badanym pokazuje się bodźce bliskie granicy między tymi nazwami, użytkownicy rosyjskiego szybciej rozpoznają różnice i wskazują odpowiedź po „właściwej” stronie podziału niż użytkownicy angielskiego, dla których na poziomie językowym oba zaprezentowane kolory to po prostu blue. Co więcej, efekt bywa też silniejszy w prawym polu widzenia, czyli po stronie, którą w mózgu obsługuje lewa półkula związana z przetwarzaniem języka. Badania EEG wykazały też bardzo wczesne, automatyczne różnice w pracy mózgu — jakby same nazwy „dostrajały” wzrok badanych jeszcze zanim świadomie zwrócili uwagę na barwę. [3][4][5].
Ten obraz ma swoje niuanse: są badania, które znajdują mniejsze efekty albo stawiają ostrzejsze warunki ich wystąpienia (gdy bodźce są bardzo wyraźne, a procedura eliminuje pamięć i uwagę, różnice potrafią słabnąć). Ogólna lekcja jest jednak czytelna: wpływ języka najsilniej daje o sobie znać na styku kategorii, kiedy percepcja musi rozstrzygnąć coś „pomiędzy” [6]. Z punktu widzenia użytkownika sieci to moment, w którym decyduje się, czy „granatowy” to jeszcze „ciemny niebieski”, czy już inna półka estetyczna; z punktu widzenia wyszukiwarki — czy dana strona odpowiada na zapytanie bardziej o „buty trailowe”, czy o „buty do biegania po asfalcie”.
Język jako ekonomia informacji: zwięzłość, gęstość, kompromisy
Po efektach „na styku barw” warto spojrzeć szerzej: nie na pojedyncze etykiety, lecz na całe systemy językowe. Badania porównawcze pokazują, że języki — mimo ogromnych różnic w brzmieniu i strukturze — przekazują w przybliżeniu tyle samo informacji w jednostce czasu. Jak to możliwe? Działa tu prosty mechanizm równowagi: kiedy język ma mniejszą gęstość informacji w pojedynczej sylabie (czyli mniej bitów na sylabę), mówimy szybciej; gdy gęstość jest większa, mówimy wolniej. W efekcie średnia szybkość przekazu zbiega do podobnego poziomu, około 39 bitów na sekundę w badanych językach [8]. To liczba z teorii informacji Shannona: „bit” mierzy, ile niepewności redukuje sygnał. W tym świetle zasady ekonomii języka są naturalne: częstsze i łatwiejsze do przewidzenia treści przybierają krótszą formę (co potwierdzają analizy długości słów [7]), a globalnie system dąży do efektywnego kompromisu między kosztem (tempo, wysiłek) a informacją (ile niepewności usuwamy w sekundę).
To prowadzi z powrotem do relatywizmu językowego. Skoro system optymalizuje się pod kątem utraty/informacji, to konkretne kategorie i nazwy działają jak małe „kompresory” — decydują, co uwidocznić, a co pominąć. Modele Information Bottleneck pokazują, że istnieje „złoty środek” liczby nazw: na tyle dużo, by nie tracić istotnych różnic, ale nie tyle, by wprowadzić chaos [9]. W praktyce organizacji oznacza to projektowanie rozróżnialnych, ale nieprzeładowanych taksonomii: jeśli kategorie są zbyt szerokie, informacje się zlewają; jeśli zbyt drobne, rośnie koszt decyzji i ryzyko błędu. Dobry słownik kategorii — w e‑commerce, w B2B, w nawigacji na stronie — minimalizuje dwuznaczność i maksymalizuje użyteczność rozróżnień, dokładnie tak, jak przewidywał umiarkowany relatywizm: język nie zamyka myślenia, ale kieruje je tam, gdzie najbardziej opłaca się patrzeć [7][9].
Umysł jako system stawiania hipotez. „Priory” na prostych przykładach
Pojęcie „prior” najlepiej rozumieć przez analogię do azymutu trasy: zanim zapadnie decyzja, którędy konkretnie jechać, mamy w głowie wstępny, ogólny kierunek. Nagłówek „kurtka zimowa — puch naturalny, −10°C” przesuwa uwagę ku problemowi izolacji termicznej i warunków pogodowych; „kurtka outdoor — aktywna wentylacja” uruchamia inną mapę: intensywność wysiłku, wilgoć, oddychalność. W psycholingwistyce formalizują to dwa spokrewnione nurty: Rational Speech Act — rozumienie jako wnioskowanie o intencji nadawcy na podstawie minimalnych, „racjonalnych” wyborów słów — oraz model noisy‑channel, w którym odbiorca rekonstruuje sens z zaszumionego sygnału, łącząc wskazówki językowe ze spodziewanym kontekstem [10][11].
W obu ujęciach kluczowe jest to, że im większa niepewność, tym większą wagę mają wstępne założenia, a więc i słowa. W sytuacjach bogatych informacyjnie (precyzyjne porównania parametrów, jasne zdjęcia, tabele zgodności) język traci siłę sprawczą, stając się jednym z wielu sygnałów. W sytuacjach niejednoznacznych, czyli wspominanych na początku warunkach niepewności — zapytania ogólne, nowe kategorie, nieznane marki — staje się sygnałem wiodącym.
Ograniczenia i ostrożność interpretacji
Uczciwość poznawcza wymaga, by szczerze napisać o skalach efektów i ich warunkach brzegowych. Nie wszystkie efekty są równie stabilne; część klasycznych wyników zależy od detali zadań, a w badaniach międzykulturowych trudno rozdzielić wpływy języka od wpływów instytucji, edukacji czy praktyk codziennych. Dlatego współczesny obraz jest jednocześnie zachęcający (bo efekty istnieją i są zrozumiałe mechanistycznie) oraz umiarkowany (bo ich rozmiary są zwykle małe do średnich, a wystąpienie — mocno zależne od zadania – aktywności i kontekstu, w jakim znajduje się użytkownik). Jednak to właśnie tego typu efekty w marketingu cyfrowym często przesądzają o wyniku.
Kilkuprocentowe zmiany w CTR i konwersji, powtarzane w skali serwisu, składają się na przewagę kosztową i wzrost udziału w rynku.
Część II — Marketing i SEO: jak przełożyć naukę na decyzje
Od „słów kluczowych” do „hipotez o intencji”: co zmieniły BERT, MUM i AI Overviews
Od wielu lat wiemy, że wyszukiwarki coraz mniej dopasowują słowa do słów, a coraz bardziej hipotezy do intencji. Wprowadzenie modeli rozumienia języka (BERT), a następnie wielozadaniowej architektury MUM, przygotowało grunt pod generatywne AI Overviews — podsumowania, które nie tylko podają odpowiedź, lecz także budują krótką narrację i wskazują źródła [17][18][19]. To jakościowa zmiana: ranking staje się wynikiem wnioskowania w warunkach niepewności, a nie czystej zgodności leksykalnej. Jeśli do tej pory nie udało mi się wystarczająco uargumentować związku między relatywizmem językowym, a SEO i marketingiem cyfrowym, to w tym miejscu kwestia powinna być już domknięta.
Znalezienie się w tym AI-owym „kadrze” wymaga bycia najbardziej prawdopodobną odpowiedzią na dane pytanie, co w praktyce oznacza dwie rzeczy. Po pierwsze, język o wysokiej gęstości informacji: tytuły, H1 i leady powinny w pierwszych słowach rozwiązywać największe niepewności użytkownika (kto? co? dla kogo? w jakim scenariuszu?). Po drugie, spójna architektura kategorii i etykiet, która ustawia kontekst jeszcze przed czytaniem treści szczegółowej. Model (i człowiek) musi od razu widzieć, „co to za byt”, „do czego służy” i „w jakich sytuacjach” sprawdzi się najlepiej [20].
Warto dodać trzeci element: konsekwencję semantyczną w obrębie domeny. Jeżeli raz używana jest forma „dostawa gratis”, a kiedy indziej „bezpłatna wysyłka”, sygnał staje się mniej przewidywalny. Nie chodzi o estetykę, lecz o to, że modele uczą się rozkładu słów po kontekstach; spójny słownik zmniejsza entropię interpretacji i ułatwia przypisanie treści do intencji.
Wybieranie słów jako projektowanie priorów: etykiety, taksonomie, nagłówki
Najpełniejsze efekty relatywizmu pojawiają się blisko granic kategorii — tam, gdzie rozróżniane są warianty podobne. To naturalny punkt startu. Nazwa „buty do biegania po asfalcie” precyzyjniej rozdziela ofertę od „butów do biegów terenowych” niż ogólne „buty do biegania”, a więc skraca drogę od zapytania do kliknięcia i zmniejsza liczbę błędnych wejść. Etykiety filtrów typu „na stopy szerokie” albo „na supinację” nie tylko poprawiają UX; ustawiają także priory interpretacyjne — które właściwości będą uznane za krytyczne w danej sesji.
W nagłówkach i H1 warto stosować front‑loading informacji: najważniejsze atrybuty (rozmiar, zastosowanie, kluczowa cecha) powinny pojawić się na początku. To pierwsze słowa ustalają hipotezę, którą wyszukiwarka i użytkownik będą weryfikować w kolejnych zdaniach. Gęstość treści w tych miejscach nie oznacza upychania słów kluczowych, lecz syntezę: „Hardshell 3L, oddychalność 20k, kaptur na kask” jest dla modelu i człowieka (przynajmniej tego obytego z tematyką) czytelniejsze niż „Zaawansowana kurtka w nowej odsłonie”.
W projektach wielojęzycznych granice kategorii mogą przebiegać inaczej: to, co po polsku jest jedną grupą, w niemieckim lub francuskim bywa rozdzielone, i odwrotnie. Tutaj użyteczna jest intuicja Information Bottleneck: kompromis między liczbą nazw a utratą informacji jest specyficzny dla rynku i wymaga empirycznej kalibracji [7][9]. Zamiast sztywnego tłumaczenia nazw warto projektować lokalne taksonomie, testując, w którym miejscu rozdzielenie kategorii zwiększa rozróżnialność intencji, a gdzie tylko „mnoży byty”..
CTA i ramowanie ryzyka. Kiedy mówić o zysku, a kiedy o stracie
Klasyczne badania decyzji pod ryzykiem pokazują, że te same fakty ujęte jako zysk lub strata prowadzą do innych wyborów [12]. Stąd prosta heurystyka: jeśli użytkownik obawia się kosztu, czasu lub niewygody, lepiej działa język redukcji niepewności („Bez zobowiązań”, „Zwrot 30 dni”, „Audyt 5 punktów w 48 h”); jeżeli oferta niesie przede wszystkim wartość dodatnią, akcentuj zysk („Zyskaj X w Y dni”).
Drugi mechanizm jest prostszy: płynność przetwarzania. Im prościej się czyta i mówi, tym łatwiej zaufać treści; krótkie zdania, znane słowa i przejrzysta składnia obniżają wysiłek poznawczy, a złożone, żargonowe sformułowania podnoszą postrzegane ryzyko [14][15].
Z praktycznego punktu widzenia oznacza to, że CTA i nagłówki powinny być możliwie klarowne (np. „Zobacz plan”, „Pobierz raport”), a dłuższe objaśnienia przeniesione niżej — ale to hipotezy do weryfikacji testem: w niektórych branżach (np. medycznej czy finansowej) większa precyzja i język techniczny lepiej sygnalizują kompetencję niż skrajna prostota.
Osobnym zjawiskiem jest efekt ceny zerowej: „0 zł” działa silniej niż bardzo niska cena nie dlatego, że łatwo to wypowiedzieć, lecz dlatego, że etykieta darmowe zmienia rachunek korzyści i kosztów — usuwa odczuwany koszt i nadmiernie zwiększa atrakcyjność oferty [16]. Warto też pamiętać, że to, co jest stale „za darmo” i „bez limitu”, bywa postrzegane jako mniej wartościowe i przyciąga ruch niższej jakości; dlatego potrzebne są limity, kwalifikacje lub guardrails, aby nie rozcieńczyć wartości propozycji.
SEO probabilistyczne w praktyce: myśl jak model, pisz dla człowieka
Najważniejsza zmiana mentalna polega na tym, by pisać tak, jak wnioskuje zarówno użytkownik, jak i model. To w praktyce sedno AI SEO: zaczynać od najbardziej prawdopodobnej interpretacji intencji i jak najszybciej rozstrzygać największe wątpliwości, dostarczając minimalny zestaw atrybutów potrzebnych do decyzji. Dopiero potem warto rozwijać warianty i wyjątki. Równocześnie potrzebna jest spójność wewnątrz serwisu — „brandbook semantyczny”: jedna organizacja kategorii, jeden słownik preferowanych nazw, jeden sposób prezentacji atrybutów (np. stała kolejność), aby umysł i algorytm nie traciły energii na harmonizację sprzecznych sygnałów.
W kontekście AI Overviews i pozycjonowania w wynikach AI liczy się coś jeszcze: treści, które redukują niepewność wprost (precyzyjne odpowiedzi na pytania, jasne porównania, warunki brzegowe), częściej są cytowane lub streszczane. To nie wyklucza kreatywności — oznacza raczej, że warto kłaść nacisk na gęstość informacji i konkretne, sprawdzalne fakty (źródła, parametry, warunki użycia), nawet jeśli narracja pozostaje atrakcyjna stylistycznie [17][18][19][20]. Innymi słowy: SEO dla AI wymaga treści, które od razu rozwiązują problem użytkownika, a nie tylko powtarzają słowa kluczowe.
Jak to mierzyć… Eksperymenty zamiast przeczucia
Warto łączyć wiedzę teoretyczną z rzemiosłem pomiarowym. Gdy ruch jest stabilny, a wariantów niewiele, sprawdzają się testy A/B — zapewniają czyste oszacowanie efektu i ułatwiają decyzje. Przy wielu wariantach, dużej sezonowości lub kosztownych „przegranych” warto sięgnąć po algorytmy multi‑armed bandit (np. Thompson Sampling), które dynamicznie przekierowują ruch do lepszych rozwiązań, a jednocześnie nadal eksplorują przestrzeń [21].
Kilka praktycznych zasad zwiększa wiarygodność wniosków. Po pierwsze, definiowanie metryk: oprócz CTR należy mierzyć mikro‑konwersje (dodanie do koszyka, zapis na demo), a przy zmianach nazw — także kanibalizację między podstronami. Po drugie, moc testu i minimalny wykrywalny efekt (MDE) powinny być ustalone przed startem; domykanie testów „na oko” prowadzi do błędów decyzji. Po trzecie, w testach sekwencyjnych warto stosować strażników (tzw. guardrails), aby nie optymalizować jednego wskaźnika kosztem innego (np. CTR kosztem retencji). Strażnik to „metryka ochronna” z ustalonym progiem, monitorowana równolegle do celu testu; gdy spada poniżej lub rośnie powyżej progu, eksperyment jest wstrzymywany albo wycofywany.
Ryzyka, granice i etyka
Słowa potrafią wspomóc decyzje i skierować mysli użytkownika na „właściwe” tory, ale nie zastąpią jakości oferty, ceny ani zaufania do marki.
Zbyt agresywne ramowanie („zostały 3 sztuki!” non stop) krótkoterminowo zwiększy konwersję, długoterminowo obniży wiarygodność. Różnice kulturowe wymagają lokalnych testów – to, co działa na jednym rynku, może być obojętne na innym.
Wreszcie, AI Overviews zmieniają dystrybucję kliknięć i widoczności: niektóre branże odczują to mocniej niż inne, dlatego strategię należy regularnie rewalidować [19][20]. Ostrożność metodologiczna (prerejestracja, definicje metryk, kontrola sezonowości) chroni przed nadinterpretacją „zwycięskich” wariantów.
Język – inżynier priorytetów
Współczesna nauka nie każe wierzyć, że język więzi myśl; pokazuje raczej, że kieruje nią tam, gdzie brakuje pewności, do tego szybciej niż podmiot zdoła to sobie uświadomić. Ta sama logika rządzi dziś wyszukiwarkami i asystentami: budują hipotezy o intencji, aktualizują je o kontekst i wybierają źródła, które najszybciej minimalizują niepewność użytkownika.
Jeżeli język serwisu i ofert projektowany jest z tą świadomością — kategorie rozdzielają podobne rzeczy, nagłówki mają wysoką gęstość informacji, a ramy są dopasowane do profilu ryzyka — rośnie prawdopodobieństwo, że to ta odpowiedź zostanie uznana za najlepszą. E–marketing wkroczył w świat, w którym bardziej niż „magia słów” będzie liczyła się inżynieria hipotez.
Bibliografia
[1] Sapir, E. (1929). The Status of Linguistics as a Science. Language, 5(4), 207–214. URL: https://www.jstor.org/stable/409588
[2] Whorf, B. L. (1956). Language, Thought, and Reality: Selected Writings. Cambridge, MA: MIT Press. URL: https://mitpress.mit.edu/9780262730068/language-thought-and-reality/
[3] Winawer, J., Witthoft, N., Frank, M. C., Wu, L., Wade, A. R., & Boroditsky, L. (2007). Russian blues reveal effects of language on color discrimination. PNAS, 104(19), 7780–7785. https://doi.org/10.1073/pnas.0701644104
[4] Gilbert, A. L., Regier, T., Kay, P., & Ivry, R. B. (2006). Whorf hypothesis is supported in the right visual field. PNAS, 103(2), 489–494. https://doi.org/10.1073/pnas.0509868103
[5] Thierry, G., Athanasopoulos, P., Wiggett, A., Dering, B., & Kuipers, J.-R. (2009). Unconscious effects of language-specific terminology on preattentive color perception. PNAS, 106(11), 4567–4570. https://doi.org/10.1073/pnas.0811155106
[6] Martinovic, J., Scheper, K., & Wuerger, S. M. (2020). Russian blues reveal the limits of language influencing color processing speed. Journal of Vision, 20(4), 1–27. URL: https://pubmed.ncbi.nlm.nih.gov/32276236/
[7] Piantadosi, S. T., Tily, H., & Gibson, E. (2011). Word lengths are optimized for information content. PNAS, 108(9), 3526–3529. https://doi.org/10.1073/pnas.1012551108
[8] Coupé, C., Oh, Y. M., Dediu, D., & Pellegrino, F. (2019). Different languages, similar encoding efficiency: Comparable information rates across the human communicative niche. Science Advances, 5(9), eaaw2594. https://doi.org/10.1126/sciadv.aaw2594
[9] Zaslavsky, N., Kemp, C., Tishby, N., & Regier, T. (2018). Efficient compression in color naming and its evolution. PNAS, 115(31), 7937–7942. https://doi.org/10.1073/pnas.1800521115
[10] Goodman, N. D., & Frank, M. C. (2016). Pragmatic language interpretation as probabilistic inference. Trends in Cognitive Sciences, 20(11), 818–829. https://doi.org/10.1016/j.tics.2016.08.005
[11] Gibson, E., Bergen, L., & Piantadosi, S. T. (2013). Rational integration of noisy evidence and prior semantic expectations in sentence interpretation. PNAS, 110(20), 8051–8056. https://doi.org/10.1073/pnas.1216438110
[12] Kühberger, A. (1998). The influence of framing on risky decisions: A meta-analysis. Organizational Behavior and Human Decision Processes, 75(1), 23–55. https://doi.org/10.1006/obhd.1998.2781
[13] Thibodeau, P. H., & Boroditsky, L. (2011). Metaphors we think with: The role of metaphor in reasoning. PLOS ONE, 6(2), e16782. https://doi.org/10.1371/journal.pone.0016782
[14] Alter, A. L., & Oppenheimer, D. M. (2009). Uniting the tribes of fluency to form a metacognitive nation. Personality and Social Psychology Review, 13(3), 219–235. https://doi.org/10.1177/1088868309341564
[15] Song, H., & Schwarz, N. (2009). If it’s difficult to pronounce, it must be risky: Fluency, familiarity, and risk perception. Psychological Science, 20(2), 135–138. https://doi.org/10.1111/j.1467-9280.2009.02267.x
[16] Shampanier, K., Mazar, N., & Ariely, D. (2007). Zero as a special price: The true value of free products. Marketing Science, 26(6), 742–757. https://doi.org/10.1287/mksc.1060.0254
[17] Google (2019). Understanding searches better than ever before (BERT). URL: https://blog.google/products/search/search-language-understanding-bert/
[18] Google (2021). MUM: A new AI milestone for understanding information. URL: https://blog.google/products/search/introducing-mum/
[19] Google (2024). Generative AI in Search: AI Overviews. URL: https://blog.google/products/search/generative-ai-google-search-may-2024/
[20] Google (2025). Search Quality Rater Guidelines (January 2025). URL: https://guidelines.raterhub.com/searchqualityevaluatorguidelines.pdf
[21] Russo, D. J., Van Roy, B., Kazerouni, A., Osband, I., & Wen, Z. (2018). A Tutorial on Thompson Sampling. Foundations and Trends in Machine Learning, 11(1), 1–96. https://doi.org/10.1561/2200000070