Dostałem ostatnio fragment doktoratu. Kilka stron zwartego tekstu, elegancko sformatowanego, z nienaganną angielską gramatyką. Zdania płynęły gładko, argumentacja była klarowna, a słownictwo… no właśnie, było imponujące. A jednak coś mi nie pasowało.
To było zbyt idealne.
Tekst był jak lśniąca, wypolerowana powierzchnia – bez żadnej rysy, bez śladu palca, bez najmniejszej niedoskonałości. A przez to – bez duszy. Brakowało w nim tego charakterystycznego potu, krwi i łez, które znam z setek prac, które czytałem przez lata. Brakowało śladów walki z myślą, prób ujęcia czegoś nieuchwytnego, tego całego bałaganu, z którego rodzi się nauka. Od razu wiedziałem. To nie było do końca ludzkie.
Obietnica raju, czyli dlaczego doktoranci kochają AI
Nie dziwię się młodym naukowcom, że sięgają po narzędzia takie jak ChatGPT. Pisanie doktoratu to maraton. To często 80 tysięcy słów (jak wymagają tego np. standardy w Pakistanie, o których piszą Muhammad Shaban Rafi i Iram Amjad w swoim świetnym artykule w „Discover Education”), setki źródeł, presja czasu i wieczne poczucie, że nie jest się wystarczająco dobrym. A tu nagle pojawia się magiczna różdżka.
Wystarczy kilka komend, by AI pomogło przebrnąć przez gąszcz literatury, zaproponowało strukturę rozdziału czy poprawiło szyk zdania w obcym języku. To jak mieć super-asystenta dostępnego 24/7, który nigdy się nie męczy i nie narzeka. Rafi i Amjad w swoich badaniach pokazują to czarno na białym: doktoranci czują, że AI daje im kopa. Pomaga w mechanice pisania, w burzy mózgów, w analizie danych. Zdejmuje z nich ogromny ciężar poznawczy.
Kto by z tego nie skorzystał? Ja sam, gdybym pisał dziś doktorat, pewnie bym się skusił. To po prostu szalenie kuszące.
Pułapka gładkiego tekstu i syndrom czarnej skrzynki
No dobrze, ale wracam do tego „zbyt idealnego” tekstu. Problem w tym, że doktorat to nie jest produkt. To proces. Najważniejsza część tego procesu dzieje się w głowie autora, w tym twórczym chaosie, w momentach zwątpienia i olśnienia. To właśnie ta intelektualna harówka buduje badacza.
Gdy oddajemy ten proces maszynie, dostajemy gładki tekst, ale tracimy coś bezcennego. Znika ten moment, gdy po dziesiątej próbie w końcu udaje nam się sformułować kluczowe zdanie. Znika satysfakcja z samodzielnego połączenia kropek. Zostaje tylko wynik, ale bez zrozumienia, jak do niego doszło.
To trochę jak z czarną skrzynką – wrzucasz dane, dostajesz wynik, ale cały ten magiczny proces pośrodku pozostaje tajemnicą. I to mnie trochę niepokoi. Doktoranci, z którymi rozmawiali badacze, sami przyznają, że boją się o swoje umiejętności krytycznego myślenia. Czują, że polegając na AI, mogą przegapić ważne niuanse, które dostrzegliby tylko przy osobistym, głębokim zaangażowaniu w tekst.
Gdy AI nie rozumie, że „mieć muchy w nosie” to nie problem entomologiczny
Najciekawszy w badaniach Rafi i Amjada jest moment, w którym pokazują, jak AI gubi się w kulturowych niuansach. Podają świetny przykład z języka urdu. Idiom „Aasman se baat karna” dosłownie tłumaczy się jako „rozmawiać z niebem”. AI tak to właśnie rozumie. Ale metaforycznie ten zwrot oznacza „mieć wielkie marzenia, mierzyć wysoko”. Tej subtelności maszyna nie łapie.
Pomyślałem od razu o polskich przykładach. Co by się stało, gdyby doktorant poprosił AI o analizę tekstu, w którym bohater „szuka dziury w całym”? Dostałby pewnie analizę geologiczną albo budowlaną. A gdyby polityk „obiecywał gruszki na wierzbie”? Model mógłby zacząć analizować możliwości uprawy sadowniczej.
To zabawne, ale pokazuje fundamentalny problem: AI nie ma przeżyć, nie ma ciała, nie ma kontekstu kulturowego. Bazuje na wzorcach statystycznych, a nie na prawdziwym rozumieniu świata. Dlatego tak często generuje treści, które są poprawne, ale jałowe. Brakuje im tej „lokalnej” wiedzy, tego osadzenia w rzeczywistości, które dla człowieka jest oczywiste.
Zabronić? Nie. Ale trzeba zacząć myśleć inaczej
Co więc robić? Udawać, że problemu nie ma? Zabronić używania AI? To byłaby walka z wiatrakami i, szczerze mówiąc, głupota. Te narzędzia z nami zostaną.
Cała sztuka polega na tym, by nauczyć się z nich mądrze korzystać. Zamiast traktować je jak autorów, używać ich jako wyspecjalizowanych asystentów. Do korekty, do szukania inspiracji, ale nigdy do myślenia za nas. Autorami musimy pozostać my.
Co ciekawe, wspomniany artykuł wskazuje, że samo AI wytwarza tak charakterystyczny, nieco sztuczny styl, że można nauczyć się go rozpoznawać. Promotorzy i studenci wskazują na pewne lingwistyczne sygnały: nienaturalnie gładki język, zdania o podobnej długości i nadużywanie pewnych słów (badacze wymieniają m.in. disrupt, enhance, framework, leverage, paradigm – brzmi znajomo?). To ironia losu, że musimy uczyć się rozpoznawać ślady maszyny, która została stworzona, by te ślady ukrywać.
Koniec końców, nie chodzi o technologię. Chodzi o nas. Pytanie nie brzmi, czy używać AI w nauce, ale jak to robić, by nie oddać maszynie tego, co w nas najcenniejsze: zdolności do samodzielnego, krytycznego i czasami bolesnego myślenia.
Na koniec ciekawostka: da się napisać szkic doktoratu od A do Z przez GenAI 🙂