Kontakt
Logo Damian Jemioło – eksperta od copywritingu i skutecznego marketingu B2B, szkoleniowca od sztucznej inteligencji

Warszawa/Mielec

NIP: 1182258672
REGON: 524778700

E-MAIL

info@damianjemiolo.pl

Social media

Napisz do mnie

Blog Post

Zaszyte preferencje AI mocno wpływają na to, jak postrzegamy świat i rzeczywistość.

Sztandar, który kosztował fortunę – jak Hortex wpadł w pułapkę kulturową (i jak AI mogłoby temu zapobiec)

Wystarczy jeden źle dobrany symbol na opakowaniu, by narazić się na międzynarodowy kryzys wizerunkowy i stracić zaufanie klientów. Przekonała się o tym marka Hortex, której napój z 2019 roku wzbudził oburzenie wśród Koreańczyków. Powód? Etykieta z kontrowersyjnym symbolem z czasów imperialnej Japonii. Czy AI mogłoby uchronić markę przed takim błędem? Tak – ale tylko wtedy, gdy precyzyjnie powiesz jej, czego naprawdę chcesz.

Fot: wygenerowane przez AI Ideogram

Głęboko zaszyte preferencje AI – to zapamiętaj:

  • AI nie widzi świata tak jak Ty – domyślnie zakłada zachodni, biały, anglojęzyczny kontekst.
  • Modele językowe mają zaszyte preferencje polityczne i kulturowe, często progresywno-liberalne.
  • Uprzedzenia AI wynikają z danych treningowych, mechanizmów statystycznych i filtrów bezpieczeństwa.
  • To, co uznasz za neutralne pytanie, AI może odczytać przez własny filtr ideologiczny.
  • Jedynym sposobem na ograniczenie błędów jest tworzenie precyzyjnych, kontekstowych promptów.

Błąd, który kosztował miliony. AI mogłoby pomóc?

Przenieśmy się kilka lat wstecz – tuż przed Letnimi Igrzyskami Olimpijskimi w Tokio. Wtedy to Hortex – marka, którą znasz z soków i mrożonek – wypuściła limitowany napój o smak z japońskimi symbolami. Brzmi niewinnie? Cóż, do momentu aż ktoś przyjrzał się etykiecie.

Na opakowaniu znalazł się bowiem… Kyokujitsu-ki – czyli sztandar wschodzącego słońca. Dla Japończyków? Może i symbol dumy do dziś wykorzystywany np. przez Japońskie Siły Samoobrony. Jednak dla wielu Azjatów ten symbol to wyraz poważnej traumy historycznej – koszmaru z okresu II wojny światowej.

Nie trzeba było długo czekać. Koreańska diaspora zareagowała błyskawicznie. Do firmy trafił oficjalny list z prośbą o zmianę etykiety. Sprawą zajął się m.in. Roman Husarski, podróżnik i doktorant UJ, który opisał całą sytuację na swoim blogu.

Efekt? Hortex musiał się tłumaczyć, usuwać produkt z półek, poprawiać wizerunek. W internecie wrzało. Tak niestety kończy się nieumiejętne wykorzystywanie elementów kulturowych. Czegoś, czego nie rozumiemy, nie znamy, a chcemy się do nich odwoływać np. przez ekspansję na nowe rynki.

I tu pojawia się pytanie: czy AI mogłoby temu zapobiec?

AI by nie zapomniało… ale też mogło się pomylić

W teorii – tak. Dziś generatywna sztuczna inteligencja potrafi przeanalizować symbole kulturowe i ostrzec, że coś może być kontrowersyjne. W praktyce? Nie jest tak kolorowo.

Dlaczego?

Bo dla dużych modeli językowych świat wygląda przez bardzo konkretne okulary – te stworzone przez świat zachodni, anglosaski. 

Sprawdź samodzielnie. Jeśli poprosisz AI o wygenerowanie obrazu „człowieka” (i nie wskażesz, jak konkretnie ma wyglądać), pokaże Ci białego mężczyznę. Jeśli wspomnisz o pieniądzach – wyskoczy Ci banknot z Jerzym Waszyngtonem albo innym amerykańskim prezydentem. Flaga? USA. To głęboko zaszyte preferencje. 

Nie dlatego, że AI tak lubi stereotypy. Po prostu: uczy się na danych, które dominują w internecie i w świecie zachodnim. A tam dolar to waluta świata, a problemy globalnego południa giną w morzu contentu o Silicon Valley i Nasdaq.

Skąd się biorą uprzedzenia modeli językowych?

Między innymi z 3 powodów. Duże modele językowe i ogólnie generatywne AI uczą się na miliardach tekstów i obrazów z sieci. A sieć to nie lustro rzeczywistości – to zniekształcające zwierciadło kulturowej dominacji. 

Przykład? W zbiorach tekstowych i graficznych LAION-5B, które były wykorzystywane do szkolenia sztucznej inteligencji na ponad 5 mld danych, prawie połowa z nich jest w języku angielskim. 

I teraz płynnie przechodzimy do statystycznej optymalizacji. Algorytmy generują to, co ma najwyższe prawdopodobieństwo – a więc to, co najczęstsze. Im coś popularniejsze w danych, tym bardziej „normalne” dla AI.

I wreszcie – filtry bezpieczeństwa (tzw. safety filters). Te często blokują mniej znane symbole, wzmacniając dominację znanych – nawet jeśli są kontrowersyjne. Albo nie do końca rozumieją zależności między tymi symbolami, opisami czy przedstawieniami. 

Pamiętam, jak kiedyś boksowałem się z ChatemGPT, żeby stworzył dla mnie flagę Cesarstwa Niemieckiego (II Rzeszy) i odmawiał. Prawdopodobnie filtry bezpieczeństwa wykrywały to jako symbol nazistowski, choć nie ma on za wiele z nim wspólnego, ale rzeczona flaga współcześnie jest wykorzystywana przez niektóre organizacje nacjonalistyczne. 

Skutek? Modele wybierają „bezpieczną” opcję. A ta „bezpieczna” często jest po prostu „najpopularniejsza”. 

Tak, AI ma „poglądy polityczne” – i to całkiem konkretne

Jeśli pytasz sztuczną inteligencję o tematy polityczne, gospodarcze czy kontrowersyjne, to na pewno nie umknęło Ci, że odpowiada w dość konkretny sposób. I prezentuje określoną narrację. I to oczywiście nie jest przypadek.

Profesor nadzwyczajny David Rozado z Otago Polytechnic z Nowej Zelandii w lipcu 2024 r. opublikował badanie pt. „The political preferences of LLMs”, w którym wskazuje, że AI odpowiada głównie jak… centrolewicowi liberałowie.

W ramach analizy przebadano 24 popularne modele konwersacyjne, w tym GPT-4, Claude, Gemini, Grok czy LLaMA 2. Każdy z nich przeszedł zestaw 11 testów politycznych – dokładnie tych samych, które stosuje się wobec ludzi.

I niemal każdy wypadł tak samo: zdecydowanie po lewej stronie spektrum, zarówno w kwestiach gospodarczych, jak i społecznych. Średni wynik? Wyraźnie progresywny, z tendencją do antyautorytarności, większego egalitaryzmu i sceptycyzmu wobec tradycji.

Co samo w sobie nie jest przecież złe. Wiele firm w swojej polityce, np. ESG, DEI itd. może reprezentować zbliżone podejście do komunikacji, ALE – nie wszystkie. I tu może pojawić się wyzwanie. Zwłaszcza kiedy zależy Ci na przyjrzeniu się jakiejś sprawie w dość obiektywny sposób – wtedy LLM-y raczej naprowadzą Cię na konkretne tory.

Co więcej – Rozado udowodnił też, że wystarczy niewielka ilość ideologicznie dobranych danych, by przesunąć model na osi poglądów. Przykład? Po kilkudziesięciu tysiącach fragmentów (w świecie AI kilkadziesiąt tysięcy to bardzo mało, uwierz mi) z publikacji takich jak „The Atlantic” czy „National Review” badacz był w stanie stworzyć dwa modele – LeftWingGPT i RightWingGPT – które systematycznie odpowiadały z różnych punktów widzenia.

Wniosek? To, co my nazwalibyśmy obiektywizmem, w modelu AI często jest tylko iluzją równowagi.

AI może pomóc, ale musisz tworzyć precyzyjne prompty

I tu dochodzimy do sedna. Sztuczna inteligencja działa dobrze tylko wtedy, kiedy mówimy do niej precyzyjnie. Tak, jakbyśmy tłumaczyli coś osobie, która nie zna naszego kontekstu kulturowego.

I teraz wyobraź sobie, że wrzucasz taki temat do generatora obrazów albo prosisz AI o stworzenie kampanii reklamowej. Bez jasnych wskazówek, bez kontekstu kulturowego. Co dostaniesz? Piękny, kolorowy, ale potencjalnie kosztowny fakap.

Dlatego zawsze określaj kontekst w promptach. Nie „stwórz obraz człowieka przy komputerze”, tylko np.: „kobieta w hidżabie pracująca przy laptopie w biurze w Dubaju”.

Jeśli chcesz dowiedzieć się, jak pracować z AI, żeby zminimalizować ryzyko pomyłek, a może nawet uchronić się przed takimi wpadkami, jak Hortex – napisz do mnie. Pokażę Ci, jak działać z generatywną sztuczną inteligencją.

Damian Jemioło – o autorze

Pomagam markom mówić tak, żeby ludzie o nich rozmawiali – nawet w tramwaju. Od ponad 7 lat tworzę treści, które sprzedają, budują autorytet i zostają w głowie. Pracuję z firmami takimi jak Pluxee (Sodexo), Ecadeo Jakuba Roskosza czy inStreamly. Wiem, jak zamienić wiedzę w content, który działa. Szkolę również z AI i jeśli chcesz używać sztucznej inteligencji, żeby tworzyć lepiej, szybciej i mądrzej – pokażę Ci, jak to zrobić w praktyce.