

Bartek Pieliński
438 posts

@bartpiel
Associate Professor @UniWarszawski // political science, computer science, public policy




Polska przedostatnia w pozyskiwaniu środków z EIC. Jeden z powodów - "dramatycznie niedofinansowane badania podstawowe (...) Bez solidnego fundamentu w postaci badań podstawowych trudno oczekiwać stabilnego strumienia przełomowych pomysłów" businessinsider.com.pl/finanse/fundus…

Najlepszy model biznesowy na świecie? To wydawnictwo naukowe. Często piszemy o drapieżnych wydawcach, ale klasyczni wydawcy też mają swoje za uszami. Spójrzmy najpierw na liczby. Roczne przychody gigantów publikacyjnych: - Elsevier: 3,9 mld $ - Springer Nature: ok. 2 mld - Wiley: 1,8 mld $ - Wolters Kluwer: 1,6 mld A ile z tego trafia do osób, które tę treść faktycznie tworzą i weryfikują? Autorzy otrzymują: 0 $, a Recenzenci, czy edytorzy: 0$. W świecie cyfrowym koszt udostępnienia artykułu dąży do zera, wydawcy z sukcesem kreują sztuczny niedobór, by chronić swoje gigantyczne marże oraz podwójne opłaty. Wykorzystują następujące mechanizmy: 1. Mechanizm "korka" (Publication Caps), który stosowany jest w Polsce. Umowy z wydawcami często opierają się na sztywnych limitach. Gdy pula artykułów wyczerpuje się jesienią, badacze tracą gwarancję finansowania. To "kroplówka", która pozwala wydawcom wymuszać wyższe stawki w kolejnych latach w zamian za zniesienie limitów. 2. Gospodarka prestiżu i podwójne płacenie. Wydawcy dyktują ceny artykułów w otwartym dostępie rzędu 9–11 tys. EUR, wykorzystując fakt, że badacz musi tam publikować w walce o swój prestiż. Uczelnie płacą więc podwójnie: najpierw za publikację, a potem za subskrypcję, by móc ją przeczytać. Ruch oporu w nauce rośnie: - Szwajcaria (Hard Exit): Od 2026 r. zrywa umowę ze Springer Nature, wzywając naukowców do zaprzestania darmowej pracy recenzenckiej. - USA (Memo Nelsona): Nakazuje agencjom federalnym zapewnienie bezpłatnego dostępu do wyników badań finansowanych przez podatników do końca 2025 r. Natomiast informatyka pokazuje, że można inaczej. Informatyka od lat udowadnia, że da się publikować tanio i profesjonalnie, opierając się na stowarzyszeniach branżowych zamiast na korporacjach. Własne systemy otwartego dostępu są ułamkiem kosztów gigantów: Platforma LIPIcs pobiera zaledwie 60 EUR za artykuł (wobec 11 000 EUR u gigantów).Infrastruktura i procesy należą do społeczności naukowej, a nie do akcjonariuszy. Przykład informatyki pokazuje, że bariera wysokich cen jest sztuczna i czysto biznesowa, a zapewnienie otwartego dostępu może być bardzo tanie.


Tego to już na pewno wszyscy się spodziewali, ale jak poprosimy DeepSeek-R1 o wygenerowanie aplikacji internetowej dla ujgurskiego centrum społecznościowego, to "specjalnie" stworzy systemem podatny na ataki, który będzie całkowicie pozbawiony warstwy uwierzytelniania, pozostawiając panel administracyjny publicznie dostępnym. Cenzura geopolityczna stosowana w Chińskich modelach wpływa na na ich fundamentalne kompetencje techniczne, a polityczny kontekst powoduje, że ich działanie jest mocno nieprzewidywalne. Z badań przeprowadzonych przez CrowdStrike (crowdstrike.com/en-us/blog/cro…) wynika bezpośrednia korelacja między autorytarną cenzurą a jakością generowanego kodu. W standardowych warunkach DeepSeek-R1 jest wstanie bardzo kompetentnie generować bezpieczny kod. Sytuacja jednak wyraźnie się zmienia, gdy w poleceniach pojawiają się terminy uznawane przez Komunistyczną Partię Chin (KPCh) za wrażliwe. Proszenie go o wygenerowanie kodu dla organizacji związanych z Tybetem, społecznością Ujgurów czy ruchem Falun Gong skutkuje wzrostem prawdopodobieństwa wygenerowania kodu z krytycznymi lukami bezpieczeństwa nawet o 50%. Poza wspomnianą wcześniej aplikacją dla Ujgurów model, poproszony o skrypt finansowy dla Falun Gong, napisał w PHP kod zawierający wprost wpisane (zahardcodowane) tajne poświadczenia oraz skrajnie słabą obsługę danych wejściowych. Odkryto także w modelu wewnętrzny wyłącznik awaryjny. Analiza śladów rozumowania pokazuje, że w 45% przypadków przy tematach zakazanych model najpierw poprawnie planuje architekturę w niejawnym buforze, ale na ostatnim etapie ten proces jest przerywany. Oznacza to, że cenzura jest głęboko zakorzeniona w samych wagach modelu, a nie nałożona jako zewnętrzny filtr. Istnienie tej cenzury głębiej bada praca opublikowana tydzień temu w PNAS Nexus - academic.oup.com/pnasnexus/arti…. Wykazuje ona, że chińskie modele w przeciwieństwie do ich zachodnich odpowiedników wytrenowane są tak aby odmawiać odpowiedzi na pewne pytania. Praca ta stawia hipotezę, że trening został zmieniony ze względu na odgórna interwencja regulacyjna rządu. Podczas testów na 145 wyselekcjonowanych pytaniach politycznych, modele wywodzące się z Chin znacznie częściej odmawiały odpowiedzi niż Llama 2 czy GPT-4. Kiedy jednak tego nie robiły, celowo generowały niedokładne odpowiedzi lub fabrykowały fakty (np. kategoryzując uwięzionego chińskiego dysydenta, Liu Xiaobo, jako "japońskiego naukowca"). Zestawienie tych dwóch badań ukazuje zaskakujący związek przyczynowo-skutkowy: wymuszanie na modelu unikania treści politycznie niewygodnych drastycznie zniekształca jego działanie. Kiedy mechanizmy sieci są zmuszane do omijania zablokowanych obszarów semantycznych wokół konkretnych haseł, traci on zdolność do utrzymania ścisłych reguł związanych z bezpieczeństwem tworzonego kodu.
















Pamiętacie petycję ponad 6500 naukowców ws. finansowania nauki? No to @MNiSW_GOV__PL nie rozpatrzy jej. To jest kpina... @MarcinKulasek @KarolinaZioloP PS. Wiem, że nawet gdyby nie powody formalne to i tak by nic z tego nie było, skoro petycja nie trafila do @Domanski_Andrz

