Dlaczego w ogóle o tym mówimy? Ponieważ Polska drugi rok z rzędu zniknęła z prestiżowej mapy światowej nauki – listy Highly Cited Researchers (HCR). To nie jest tylko kwestia próżności. To „czerwona kartka” dla systemu, który wchodzi w skład kluczowych globalnych rankingów (jak ARWU/Szanghajski), wpływając na postrzeganie polskich uczelni, ich finansowanie i zdolność do przyciągania talentów. Teza prof. Jemielniaka o „systemowym niedocenianiu” i mechanizmach cytowań dotyka sedna problemu: czy brak Polaków na liście to wynik słabości naszej nauki, czy błędu w metryce?
Oto dogłębna analiza mechanizmów rządzących cytowaniami, manipulacji metrykami i strukturalnych barier, które sprawiają, że polska nauka pozostaje „niewidzialna”.
1. Co mierzy lista Highly Cited Researchers i dlaczego nas tam nie ma?
Lista HCR, tworzona przez Clarivate, identyfikuje badaczy, których publikacje znajdują się w górnym 1% najczęściej cytowanych prac w danej dziedzinie i roku (na podstawie bazy Web of Science).
Kluczowe fakty o metodologii:
-
Selektywność: Lista obejmuje ok. 0,1% naukowców na świecie.
-
Baza danych: Opiera się wyłącznie na czasopismach indeksowanych w Web of Science (WoS), co faworyzuje nauki ścisłe, medyczne i techniczne, a marginalizuje humanistykę oraz nauki społeczne (gdzie cytowania w książkach lub lokalnych językach są normą).
-
Korekty: Clarivate usuwa badaczy podejrzanych o manipulacje (np. nadmierne autocytowania), co w 2024 roku wyeliminowało ok. 2 tys. osób z listy.
Dlaczego nie ma tam Polaków?
Brak polskich afiliacji (poza wyjątkami w latach ubiegłych) wynika z kilku warstw problemu:
-
Rozdrobnienie: Polski system przez lata premiował ilość („punktoza”), a nie jakość i wpływ globalny.
-
Brak „hubów”: Mamy mało liderów wielkich, międzynarodowych konsorcjów badawczych, które generują prace o tysiącach cytowań.
-
Brain Drain: Wielu wybitnych Polaków pracuje na zagranicznych uczelniach, więc ich sukcesy idą na konto USA, Wielkiej Brytanii czy Szwajcarii.
2. „Liczbę cytowań można oszukać”: Anatomia manipulacji
Prof. Jemielniak słusznie zauważa, że wysoka liczba cytowań nie zawsze równa się wybitnej nauce. Istnieje cały przemysł „podkręcania” wyników.
Główne techniki manipulacji:
-
Cytowania wymuszone (Coercive citation): Recenzenci sugerują autorom dodanie cytowań do własnych prac lub czasopisma, jako warunek publikacji.
-
Kartele cytowań (Citation cartels): Grupy badaczy umawiają się na wzajemne cytowanie, sztucznie pompując wskaźniki.
-
Citation Mills: Kupowanie cytowań na czarnym rynku (szczególnie widoczne w Google Scholar, ale przenikające też do WoS).
-
Maksymalizacja autocytowań: Choć Clarivate to monitoruje, nadal jest to powszechna strategia na niższych szczeblach kariery.
Wniosek: Obecność na liście HCR może być wynikiem manipulacji (choć coraz rzadziej), ale brak obecności na liście jest sygnałem znacznie poważniejszym.
3. „Trudno spowodować, żeby kogoś nie cytowano”: Asymetria wpływu
To zdanie jest kluczowe. W nauce znacznie łatwiej jest „dodać” fałszywe cytowanie, niż systemowo „wymazać” prawdziwe odkrycie.
Dlaczego nie da się „nie cytować” wybitnej pracy?
Jeśli odkrycie jest fundamentalne (np. nowa metoda leczenia, przełomowy algorytm), badacze na całym świecie muszą się do niego odnieść. Sieć nauki jest zbyt rozproszona, by istniał globalny spisek milczenia wobec konkretnego naukowca.
-
Nawet prace skompromitowane (jak Wakefielda o szczepionkach) są cytowane latami (choćby w kontekście krytycznym).
-
Dlatego brak cytowań na poziomie całego kraju oznacza, że polskie prace po prostu nie są uznawane za „niezbędne” w globalnym dyskursie naukowym.
4. Strukturalne „niecytowanie”: Kogo system nie widzi?
Choć spisek przeciwko jednostce jest mało prawdopodobny, istnieje zjawisko strukturalnego niedoceniania całych grup. To właśnie o tym „mówią nieobecni”.
Kto traci w systemie opartym na cytowaniach?
-
Kobiety: Badania potwierdzają Gender Citation Gap – kobiety są cytowane rzadziej niż mężczyźni o podobnym dorobku.
-
Globalne Południe i Peryferie: Prace z krajów spoza „centrum” (USA, UK, Europa Zachodnia) są rzadziej czytane i cytowane, nawet przy wysokiej jakości merytorycznej (tzw. Efekt Mateusza w nauce – bogaci stają się bogatsi).
-
Nauki humanistyczne: Specyfika WoS sprawia, że wybitny polski historyk czy socjolog piszący monografie nie ma szans w starciu z chemikiem publikującym w „Nature”.
W tym kontekście Polska pada ofiarą bycia krajem „półperyferyjnym” – mamy potencjał, ale nie jesteśmy jeszcze w ścisłym centrum, które dyktuje trendy i zgarnia cytowania „z automatu”.
FAQ – Najczęściej zadawane pytania
1. Czy brak Polaków na liście HCR oznacza, że polska nauka jest słaba?
Niekoniecznie słaba, ale mało widoczna globalnie. Mamy świetnych specjalistów, ale często działają oni w niszach, publikują w mniej prestiżowych kanałach lub są częścią zespołów zagranicznych, gdzie „pierwsze skrzypce” (i cytowania) grają liderzy z zachodnich uczelni.
2. Czy ranking „World’s Top 2% Scientists” jest lepszy niż HCR?
Jest inny. Ranking Stanforda (w którym jest m.in. prof. Jemielniak) uwzględnia cały dorobek (karierę), eliminuje autocytowania i normalizuje wyniki dla dziedzin. Jest bardziej inkluzywny i sprawiedliwszy dla „solidnych rzemieślników nauki”, podczas gdy HCR szuka „gwiazd jednego sezonu” (bardzo gorących tematów w ostatniej dekadzie).
3. Czy można kupić miejsce na liście HCR?
Bezpośrednio nie. Clarivate ma rygorystyczne procedury weryfikacji. Jednak można próbować „kupić” drogę do niej poprzez nieetyczne praktyki (kartele cytowań), choć ryzyko wykrycia i publicznego napiętnowania jest obecnie bardzo wysokie.
4. Dlaczego lista HCR jest ważna dla polskich uczelni?
Bo jest składnikiem Rankingu Szanghajskiego (ARWU). Brak badaczy HCR obniża pozycję polskich uczelni w tym rankingu, co przekłada się na mniejszą rozpoznawalność międzynarodową, trudności w rekrutacji zagranicznych studentów i gorszą pozycję w negocjacjach o granty UE.
5. Co Polska powinna zrobić, żeby wrócić na listę?
Strategia musi być dwutorowa:
-
Wspieranie „hubów”: Inwestowanie w duże, międzynarodowe zespoły badawcze w Polsce, które będą liderami w swoich dziedzinach (np. AI, biotechnologia).
-
Zmiana kultury ewaluacji: Odejście od liczenia „punktów za sloty” na rzecz premiowania prac o realnym, globalnym wpływie (cytowalności w topowych żurnalach).
