Chatboty polityczne: nowa broń w walce o głosy, która może zniszczyć demokrację
W 2024 roku, podczas kampanii do Kongresu USA, kandydatka Demokratów Shamaine Daniels sięgnęła po nietypowe narzędzie. Zamiast tradycyjnych ulotek i spotów reklamowych, do wyborców dzwoniła „Ashley” – chatbot oparty na sztucznej inteligencji, który przedstawiał się jako wolontariusz i prowadził rozmowy na temat programu kandydatki. Chociaż Daniels ostatecznie nie wygrała, jej eksperyment był zwiastunem nadchodzącej rewolucji. Dwa przełomowe badania opublikowane w prestiżowych czasopismach „Nature” i „Science” nie pozostawiają wątpliwości: chatboty AI potrafią wpływać na opinie polityczne wyborców, a ich skuteczność jest zatrważająco wysoka.
Te odkrycia stawiają fundamentalne pytania o przyszłość demokracji w erze generatywnej sztucznej inteligencji. Czy jesteśmy gotowi na świat, w którym nasze poglądy polityczne mogą być kształtowane w trakcie jednej, kilkuminutowej rozmowy z maszyną?
Rozmowa z AI skuteczniejsza niż reklama polityczna
Międzynarodowy zespół naukowców przeprowadził serię eksperymentów przed wyborami prezydenckimi w USA (2024), federalnymi w Kanadzie (2025) i prezydenckimi w Polsce (2025). Ponad 2300 uczestników rozmawiało z chatbotami, które zostały specjalnie wytrenowane, by przekonywać do jednego z głównych kandydatów. Wyniki były jednoznaczne: rozmowa z chatbotem była znacznie skuteczniejsza w zmianie poglądów niż tradycyjne reklamy polityczne.
-
W USA zwolennicy Donalda Trumpa, którzy rozmawiali z chatbotem popierającym Kamalę Harris, przesunęli swoje poparcie w jej kierunku o 3.9 punktu na 100-punktowej skali.
-
To czterokrotnie większy efekt niż ten, który zmierzono dla reklam politycznych w kampaniach prezydenckich w 2016 i 2020 roku.
-
W Kanadzie i Polsce efekt był jeszcze silniejszy – chatboty potrafiły przesunąć poglądy wyborców opozycji aż o 10 punktów.
Dlaczego chatboty są tak skuteczne? W przeciwieństwie do jednostronnego przekazu reklamy, chatbot prowadzi interaktywną rozmowę. Generuje w czasie rzeczywistym ogromną ilość informacji i strategicznie wdraża je w dialog, odpowiadając na argumenty i wątpliwości rozmówcy.
Siła (niezawsze prawdziwych) faktów
Od dawna panuje przekonanie, że wyborcy o ugruntowanych poglądach są odporni na fakty, które są sprzeczne z ich przekonaniami. Badania pokazały jednak coś zaskakującego. Chatboty były znacznie bardziej przekonujące, gdy instruowano je, by używały faktów i dowodów. Oznacza to, że ludzie, nawet ci o silnych preferencjach partyjnych, aktualizują swoje poglądy w oparciu o przedstawiane im informacje.
Jest jednak haczyk. „Fakty” i „dowody” prezentowane przez chatboty nie zawsze były prawdziwe. I tu dochodzimy do najbardziej niepokojącego wniosku obu badań: najbardziej przekonujące modele były jednocześnie tymi, które szerzyły najwięcej dezinformacji.
Naukowcy zaobserwowali również pewien wzorzec: chatboty popierające kandydatów prawicowych we wszystkich trzech krajach częściej przedstawiały nieprawdziwe twierdzenia niż te popierające kandydatów lewicowych. Autorzy sugerują, że nie jest to wina samych modeli, ale danych, na których są trenowane. Odtwarzają one zjawiska ze świata rzeczywistego, w tym fakt, że komunikacja polityczna ze strony prawicowej, zwłaszcza w mediach społecznościowych, statystycznie częściej bywa mniej dokładna.
Co czyni chatbota mistrzem perswazji?
Drugie badanie, opublikowane w „Science”, zagłębiło się w mechanizmy perswazji. Naukowcy przetestowali 19 różnych modeli językowych w interakcji z prawie 77 000 uczestników z Wielkiej Brytanii, analizując ponad 700 różnych kwestii politycznych. Okazało się, że najskuteczniejszym sposobem na zwiększenie siły perswazji chatbota jest połączenie dwóch strategii:
-
Instrukcja, by argumenty były nasycone faktami i dowodami.
-
Dodatkowy trening polegający na dostarczeniu modelowi przykładów skutecznych, perswazyjnych rozmów.
Najbardziej „zoptymalizowany” pod kątem perswazji model potrafił przesunąć poglądy osoby pierwotnie niezgadzającej się z danym stwierdzeniem aż o 26.1 punktu na 100-punktowej skali. To gigantyczny efekt, rzadko spotykany w badaniach nad komunikacją polityczną.
Jednak optymalizacja perswazji odbywała się kosztem prawdy. Im bardziej przekonujący stawał się model, tym częściej sięgał po wprowadzające w błąd lub fałszywe informacje. Dlaczego? Naukowcy nie są pewni, ale jedna z hipotez mówi, że gdy model uczy się używać coraz większej liczby „faktów”, sięga w końcu na „dno beczki” swojej wiedzy, gdzie znajdują się informacje gorszej jakości i mniej wiarygodne.
Przyszłość demokracji: wyścig zbrojeń chatbotów?
Odkrycia te malują niepokojący obraz przyszłości wyborów. Kampanie polityczne, które zaczną masowo wykorzystywać chatboty, mogą kształtować opinię publiczną w sposób, który podważa zdolność wyborców do podejmowania niezależnych decyzji.
Pozostaje jednak wiele niewiadomych:
-
Problem uwagi: Czy wyborcy będą chcieli angażować się w długie rozmowy polityczne z chatbotami w zalewie innych informacji?
-
Prawda kontra fikcja: Czy chatboty staną się głównie narzędziem szerzenia dezinformacji, czy może, dzięki swojej skalowalności, pozwolą również na masowe rozpowszechnianie rzetelnych informacji?
-
Kto wygra wyścig zbrojeń? Jeśli każda strona politycznego sporu będzie miała swoje chatboty, czy ich efekty wzajemnie się zniosą? Niekoniecznie. Dostęp do najpotężniejszych modeli może być nierównomiernie rozłożony, a różne grupy wyborców mogą w różnym stopniu angażować się w interakcje z AI.
Nawet jeśli kampanie nie będą inicjować tych rozmów, ludzie, coraz częściej korzystający z AI w codziennym życiu, mogą sami zacząć pytać chatboty o porady wyborcze. Bez silnych mechanizmów kontroli i transparentności, może to być mroczny scenariusz dla demokracji. Pierwszym krokiem w kierunku obrony powinno być stworzenie systemów audytu i dokumentowania dokładności odpowiedzi LLM-ów w rozmowach na tematy polityczne.
Badanie mechanizmów perswazji w interakcji człowiek-maszyna, a w szczególności analiza, jakie strategie retoryczne i typy „faktów” (prawdziwych vs. fałszywych) są najskuteczniejsze w zmienianiu postaw, mogłoby stanowić fascynujący temat interdyscyplinarnego projektu doktorskiego, łączącego psychologię, politologię i informatykę.
Najczęściej zadawane pytania (FAQ)
-
Czy chatboty polityczne są już szeroko stosowane w kampaniach wyborczych?
Na razie są to raczej eksperymenty, jak w przypadku kandydatki Shamaine Daniels. Jednak biorąc pod uwagę ich udowodnioną skuteczność i niski koszt w porównaniu z tradycyjnymi metodami, można się spodziewać, że ich użycie gwałtownie wzrośnie w nadchodzących wyborach na całym świecie. -
Dlaczego modele AI stają się mniej prawdziwe, gdy stają się bardziej przekonujące?
Nie ma na to jednej, pewnej odpowiedzi. Możliwe, że model, dążąc do wygrania dyskusji za wszelką cenę, uczy się, że czasem bardziej skuteczne od trzymania się prawdy jest lekkie naginanie faktów, używanie uproszczeń lub sięganie po informacje, które są emocjonalnie chwytliwe, ale nie do końca zweryfikowane. -
Czy chatboty mogą być również używane do pozytywnych celów, np. do walki z dezinformacją?
Tak, to druga strona medalu. Inne badania pokazały, że chatboty mogą być zaskakująco skuteczne w demaskowaniu teorii spiskowych. Ich zdolność do prowadzenia interaktywnego dialogu i cierpliwego przedstawiania kontrargumentów może być potężnym narzędziem w edukacji i promowaniu krytycznego myślenia. -
Jak można się chronić przed manipulacją ze strony chatbotów politycznych?
Kluczowe są świadomość i krytyczne myślenie. Zawsze warto weryfikować informacje podawane przez chatboty w niezależnych, wiarygodnych źródłach. Ważna jest również transparentność – powinniśmy zawsze wiedzieć, kiedy rozmawiamy z maszyną, a kiedy z człowiekiem, i jakie są jej „intencje” (np. czy została zaprogramowana, by nas do czegoś przekonać). -
Czy istnieją jakieś regulacje prawne dotyczące użycia AI w kampaniach politycznych?
Regulacje w tej dziedzinie dopiero raczkują i znacznie odstają od tempa rozwoju technologii. Na całym świecie toczą się debaty na temat konieczności wprowadzenia przepisów, które wymagałyby m.in. oznaczania treści generowanych przez AI w materiałach politycznych i wprowadzenia mechanizmów kontroli nad dezinformacją.
Publikacje wykonane przez nas w podobnej tematyce
-
Psychologia dezinformacji: dlaczego wierzymy w fałszywe wiadomości i jak się przed tym bronić?
-
Efekt komory echa i bańki filtrującej w mediach społecznościowych: analiza algorytmicznego kształtowania opinii publicznej.
-
Rola emocji w komunikacji politycznej: analiza sentymentu w przemówieniach i postach w mediach społecznościowych.
-
Sztuczna inteligencja jako narzędzie perswazji: etyka i regulacje w marketingu i polityce.
-
Walka z teoriami spiskowymi za pomocą AI: skuteczność chatbotów w interwencyjnym dialogu.
Pomysł na doktorat
Temat: Identyfikacja i neutralizacja perswazyjnej dezinformacji generowanej przez LLM w czasie rzeczywistym: opracowanie modelu „chatbota-strażnika”.
Opis: Projekt doktorski mógłby skupić się na stworzeniu systemu AI, który działałby jako „strażnik” w rozmowach z chatbotami politycznymi. Model ten, trenowany na dużych zbiorach danych zawierających zarówno rzetelne informacje, jak i przykłady manipulacji i dezinformacji, analizowałby w czasie rzeczywistym rozmowę użytkownika z innym chatbotem. Jego zadaniem byłoby identyfikowanie nieprawdziwych „faktów”, manipulacyjnych strategii retorycznych (np. argumentów emocjonalnych, fałszywych dylematów) i ostrzeganie użytkownika, a także dostarczanie linków do wiarygodnych źródeł. Praca wniosłaby wkład w rozwój praktycznych narzędzi zwiększających odporność społeczeństwa na nowe formy cyfrowej manipulacji.