W yścig o dominację w sztucznej inteligencji od dawna nie przypomina już akademickiej rywalizacji tęgich umysłów i laboratoriów badawczych. To starcie o wpływy gospodarcze, przewagę militarną, kontrolę nad łańcuchami dostaw i – w szerszej perspektywie – o kształt przyszłego ładu technologicznego. Gdy patrzę na to, co się dzieje w USA, Chinach i Europie, widzę trzy różne filozofie rozwoju AI. Każda z nich zakorzeniona jest w odmiennym podejściu do kapitału, regulacji, infrastruktury oraz kultury inżynieryjnej.
Ten artykuł jest próbą uporządkowania obrazu technologii, badań i innowacyjności związanej z AI. Uprzedzam, że jestem zmuszony stosować daleko idące uproszczenia. Pokażę, jak różnią się podejścia poszczególnych „obozów” do architektury modeli, strategii open source czy sposobów wykorzystania sprzętu. Postaram się nakreślić też z grubsza, jak wygląda sytuacja w obszarze pracy/pracowników i badań naukowych.

Europa, Chiny i USA – te trzy różne podejścia do rozwoju AI, ale oczywiście nie tylko one, kreślą przyszłość światowego porządku technologicznego.
To będzie długi tekst, ale temat na to zasługuje. Jest częścią cyklu towarzyszącego moim badaniom LLM (raport z nich powinien pojawić się na stronie 9 marca). W dwóch pozostałych tekstach zajmę się tym, jak prace nad AI są finansowane oraz jak w poszczególnych obszarach geograficznych podchodzi się do regulacji AI i wspierania rozwoju przez instytucje publiczne. W artykułach z tej serii pomijam inne kraje obu Ameryk, inne kraje Azji, Afrykę i Australię z Oceanią. Jest to naturalnie skrót myślowy i absolutnie nie oznacza, że w obszarze sztucznej inteligencji nic się tam nie dzieje.
Architektura AI, czyli skalowanie kontra efektywność
Zacznijmy od próby charakteryzacji poszczególnych obszarów geograficznych, aby poznać nieco ich specyfikę.
USA i „prawa skalowania”
Amerykańskie firmy i laboratoria – OpenAI, Google DeepMind, Anthropic – od lat konsekwentnie realizują strategię opartą na tzw. Scaling Laws. W uproszczeniu: im więcej parametrów, im więcej danych i im więcej mocy obliczeniowej, tym lepsze modele. Ta hipoteza przez kilka lat działała niemal jak prawo fizyki.

USA, Chiny i Europa mają unikalne filozofie budowy modeli AI, które odpowiadają ich specyficznym zasobom i celom.
Modele takie jak GPT-5.2, Gemini 3.1 czy Claude Opus 4.6 wyznaczają standard SOTA (State of the Art) w wielu benchmarkach – od rozumowania matematycznego, przez generowanie kodu, po multimodalność. Amerykanie wciąż dominują w segmencie największych, zamkniętych modeli, których szczegóły architektury i dane treningowe pozostają tajemnicą handlową.
W ostatnio wydawanych modelach mam wrażenie, że nacisk położono głównie na trzy aspekty:
- multimodalność – integracja obsługi (głównie odczytu) tekstu, obrazu, audio i wideo w jednym modelu;
- ogromne okna kontekstowe – pozwalające analizować całe repozytoria kodu, setki stron dokumentów czy długie nagrania;
- możliwość wykorzystania w scenariuszach agentowych, które mają dać nie tyle odpowiedź, co szeroko rozumiany efekt odpowiadający zleconemu zadaniu.
Oprócz tego oczywiście wprowadzanych jest wiele innych usprawnień, a do tego dochodzą niezwiązane już bezpośrednio z modelami narzędzia, które mają ułatwić nam wykorzystanie ich potencjału – chociażby kanwa w ChatGPT.
W praktyce model przestaje być „czatbotem”, a staje się czymś w rodzaju systemu operacyjnego dla wiedzy. Dla biznesu to ogromna zmiana – bo można analizować całe zbiory dokumentów prawnych, spore zasoby dokumentacji projektowej czy kod aplikacji, a to wszystko bez konieczności dzielenia na fragmenty. I co najważniejsze – wykonywać zadania na podstawie tych danych.
Amerykańska strategia jest prosta: skoro prawo skalowania działa, należy je eksploatować do granic możliwości. W tym sensie USA próbuje dojść do AGI przez brutalną siłę obliczeniową. (Uwaga na marginesie: wyzwaniem może być prąd, ale o tym jeszcze napiszę w kolejnym tekście.)

Ale czy ta ścieżka nie zbliża się do plateau?
Coraz więcej badaczy – także z amerykańskich laboratoriów – sugeruje, że dalsze zwiększanie liczby parametrów przynosi malejące przyrosty jakości. Dodatkowo liniowe zwiększanie rozmiaru okna kontekstu w uproszczeniu powoduje wykładniczy wzrost potrzebnej mocy obliczeniowej. Prawo Moore’a w obszarze AI przestaje być tak łaskawe jak kiedyś.
To moment, w którym w grę wchodzi druga filozofia.
Chiny – mistrzowie (?) optymalizacji
Sankcje ograniczające dostęp do najnowszych chipów NVIDIA – jak sięgam pamięcią wstecz, zaczęło się w szczególności od H100 – miały spowolnić rozwój chińskiej AI. W praktyce stały się jednak katalizatorem innowacji.
W roku 2025 model DeepSeek R1 zszokował środowisko, rzucając rękawicę OpenAI przy znacząco niższych kosztach treningu i inferencji. Na szeroką skalę zastosowano tu architekturę Mixture of Experts (MoE), w której tylko część parametrów aktywowana jest dla danego tokena. Przykładowo – z 600 miliardów parametrów aktywnych może być jedynie 20–30 miliardów w danym kroku. Reszta pozostaje „uśpiona”. Efekty to:
- mniejsze zużycie mocy obliczeniowej;
- niższe koszty;
- większa efektywność energetyczna.
Dodatkowo Chińczycy eksperymentują z technikami takimi jak Multi-Head Latent Attention (MLA), które redukują obciążenie pamięci i przyspieszają obliczenia.
DeepSeek obniżył ceny API do poziomu niemal symbolicznego w porównaniu z amerykańskimi modelami, wymuszając globalną wojnę cenową. Dla firm oznacza to większą dostępność LLM-ów. A jeśli koszty wnioskowania i generowania treści spadają, AI może być wdrażana w większej liczbie procesów operacyjnych.

Dla Chin ograniczenia stały się powodem do szukania innych dróg do celu i paradoksalnie w długim terminie mogą być najlepsi w efektywnym wykorzystywaniu mocy obliczeniowej. W sumie to już zaczynają to udowadniać.
Chiny pokazują, że ograniczenia sprzętowe nie muszą oznaczać stagnacji. Czasem wymuszają większą kreatywność. A w końcu my, Polacy, nie raz udowodniliśmy, że z niedoboru rodzi się innowacja 😉 Apropo Polski i Europy…
Europa – „Small Language Models” i jakość danych
Próbuję patrzeć na Europę optymistycznie, ale nie powiedziałbym, że jesteśmy na pole position w wyścigu AI.
Europa nie rywalizuje na liczbę parametrów i być może to jej największa siła.
Francuski Mistral AI udowodnił, że modele o rozmiarze 7B czy 8x7B mogą konkurować z gigantami w konkretnych zastosowaniach – jeśli są trenowane na wysokiej jakości danych i odpowiednio dostrojone.
Europejska strategia skupia się na:
- maksymalnym wykorzystaniu jakościowych zbiorów danych treningowych;
- otwartych wagach/transparentności parametrów;
- modelach możliwych do uruchomienia lokalnie (on-premise).
Dla wielu firm – zwłaszcza w sektorze finansowym, medycznym czy publicznym – zapewnia to możliwość działania bez wysyłania danych do amerykańskiej chmury, co patrząc z perspektywy regulacji takich jako RODO, ma ogromne znaczenie.

Europejska troska o wartości często przekłada się na jakość. Będzie świetnie, jeśli uda się to przełożyć na rozwiązania AI i branże przyszłości. Jednocześnie potrzebujemy do tego dużej odwagi i zrywu.
I tu dochodzimy do kolejnej cechy europejskiego podejścia. Europa stawia na kontrolę, prywatność i specjalizację. Nie próbuje wygrać wyścigu na gigantyzm, lecz buduje narzędzia bardziej dopasowane do już regulowanego rynku i reguluje samo AI. (Sporo na ten temat napiszę w tekście dot. podejścia instytucjonalnego do AI.)
Czy to wystarczy, by uzyskać suwerenność technologiczną? Zależy. Nie tylko od architektury modeli, ale też od sprzętu.
Open source i odwrócenie biegunów
Jeszcze kilka lat temu to Zachód był symbolem otwartości. TensorFlow, PyTorch, liczne repozytoria – wiadomo, że nad wieloma rozwiązaniami pracował cały świat, ale zaryzykuję twierdzenie, że wszystko to budowało globalny ekosystem wokół amerykańskich standardów. Dziś obserwujemy odwrócenie ról.
Czołowe firmy z USA coraz częściej zamykają szczegóły techniczne swoich modeli. Natomiast chińskie firmy – Alibaba (Qwen), DeepSeek i inne – publikują modele AI na licencjach typu Apache 2.0 lub MIT.

Zmiany w podejściu do definiowania, co to znaczy open source mogą wpłynąć na branżę AI i sposób/zakres wykorzystania tej technologii.
Qwen 3.5 zajmuje wysokie pozycje w rankingach, często wyprzedzając otwarte modele z USA (odsyłam też do moich badań). DeepSeek jest bardzo częstym przedmiotem pytań na prowadzonych przeze mnie szkoleniach – tak bardzo utkwił w powszechnej świadomości. Chińska strategia otwartości to strategiczny ruch, bo kto kontroluje standard, ten kontroluje przyszłość interoperacyjności.
Meta stosuje inną taktykę. Seria Llama ma być otwartą alternatywą dla modeli Google i OpenAI (co muszę odnotować: licencja Llamy zawiera ograniczenia, które nie pozwalają mówić o tych rozwiązaniach jako w pełni otwartych). Strategia Zuckerberga przypomina podejście „spalonej ziemi” – obniżenie barier wejścia, by podkopać model biznesowy konkurentów oparty na drogich API.
Efekt? Innowacje w USA są napędzane w modelu rozproszonym, ale jednocześnie granica między „open” a „closed-source” staje się coraz bardziej rozmyta.
Organizacja OSI pracuje nad nową definicją Open Source AI, która może wykluczyć większość obecnych modeli określanych jako „otwarte”. Spór o definicję jest w istocie sporem o władzę.
Krzemowe armaty
Google rozwija TPU, Amazon – Trainium i Inferentia, Microsoft – Maia. Wielcy dostawcy chmury projektują własne akceleratory, by zmniejszyć zależność od NVIDII. Tak, być może dla niektórych jest to zaskoczeniem, ale firma znana kiedyś z produkcji kart graficznych nadaje rytm najwydajniejszym serwerom wykorzystywanym przez OpenAI, Anthropica i wielu innych twórców LLM.
NVIDIA pozostaje hegemonem dzięki CUDA – ekosystemowi programistycznemu, który stał się de facto standardem. Produkcja chipów to jedno. Zbudowanie wokół nich narzędzi, bibliotek i społeczności tworzy znacznie większy poziom złożoności. Raczej nie hostuję modeli AI u siebie na komputerze, bo moim zdaniem są lepsze sposoby na eksperymenty, jednak zmieniając ostatnio sprzęt, zupełnie świadomie wybrałem średniopółkową kartę graficzną NVIDII – właśnie ze względu na CUDA. Ba, innych nawet nie rozważałem.

Zarówno Stany Zjednoczone, jak i Chiny inwestują w innowacyjne rozwiązania sprzętowe, by zyskać przewagę w wydajności AI. A Europa?
Jak już pisałem, brak dostępu do najnowszych GPU zmusił Chiny do szukania własnej drogi – budowy klastrów złożonych z różnych typów chipów, jak starszych modeli NVIDII, Huawei Ascend 910B i innych. Było to naturalnym motorem do rozwoju własnych technologii mikroukładów, ale też oprogramowania – jak CANN od Huawei – które potrafią efektywnie zarządzać heterogenicznym środowiskiem.
Zachód korzysta z homogenicznych klastrów. Chiny muszą łączyć „zlepki” sprzętu. Paradoksalnie może to w dłuższej perspektywie przynieść większą odporność systemową (tzn. ich modele być może będą mogły działać dobrze m.in. bez względu na to, na jakich chipach pracują).
Kapitał ludzki i wojna na publikacje
Bez badaczy, inżynierów i przedsiębiorców nawet największe centra danych pozostają bezużyteczne. Tym samym, jeśli architektura modeli i dostęp do chipów są paliwem w wyścigu AI, to ludzie (po korporacyjnemu: talenty ;)) są jego kołem zamachowym. Dziś w obszarze wykorzystania potencjału ludzi zdają się zachodzić duże zmiany. Zmienia się struktura karier naukowych, relacja między uczelniami a biznesem, „geografia” publikacji naukowych i nawet język, w którym powstaje wiedza.
Prywatyzacja nauki
W USA obserwujemy zjawisko, które coraz częściej określa się wyrażeniem „masowa prywatyzacja nauki”. Wg Higher Education Quarterly w roku 2004 jedynie 21% absolwentów studiów doktoranckich z AI trafiało do firm (branża IT, przemysł, bankowość etc.). W roku 2020 było to już około 70%.

Kapitał ludzki nabiera dodatkowego znaczenia w globalnym wyścigu AI, co przejawia się w postaci przeciągania talentów między uczelniami a firmami.
Uniwersytety, zwłaszcza amerykańskie, zaczynają odgrywać rolę „rurociągów talentów” dla Big Techów. Najzdolniejsi doktoranci są przechwytywani przez OpenAI, Google, Anthropic czy Metę na długo przed tym, zanim zdążą zbudować niezależne zespoły akademickie. Wynagrodzenia i możliwości są nieporównywalne.
W konsekwencji prywatny sektor, dysponujący tysiącami wydajnych chipów i dostępem do unikatowych zbiorów danych, przejmuje rolę lidera badań podstawowych. Wiedza coraz częściej kumuluje się w zamkniętych repozytoriach korporacyjnych, nie zaś w otwartych bazach arXiv.
To prowadzi do zjawiska, które nawet ma już swoją nazwę: „Corporate Science Closure”. Amerykańskie laboratoria odchodzą od publikowania szczegółowych prac na rzecz ogólnikowych raportów technicznych. Ogólne statystyki mogą wskazywać na spowolnienie innowacyjności, lecz w rzeczywistości know-how przenosi się z domeny publicznej do strefy chronionej prawami autorskimi.

Może będzie to dla Was zaskakujące, ale dziś nierzadko to chińskie firmy publikują bardziej szczegółowe prace dotyczące AI, np. na temat architektury MoE czy optymalizacji procesu trenowania modeli. Stawiam tezę, że robią to, aby budować globalną wiarygodność i ekosystem wokół własnych rozwiązań.
Chiny stawiają na nauki ścisłe
Gdy szukałem informacji do tego artykułu, dotarłem do raportu National Science Board, z którego wynika, że Chiny kształcą niemal dwukrotnie więcej absolwentów kierunków STEM niż USA. Ta dysproporcja ma szansę przynieść ciekawe skutki w długiej perspektywie. Pekin realizuje scentralizowaną strategię – m.in. poprzez „AI Innovation Action Plan for Colleges and Universities” z (uwaga!) kwietnia 2018 roku – synchronizując działalność uczelni z planami państwowymi i gospodarczymi.
Do 2030 roku Chiny mogą wyprzedzić USA pod kątem liczby publikacji naukowych – ich liczbę przewiduje się w okolicach 67-68 tys. rocznie wobec 51-52 tys. w USA – oraz w liczbie patentów. Ale jeszcze ciekawsze jest to, że nastąpiło „skrzyżowanie krzywych” w obszarze jakości.
Historycznie bowiem chińskie prace bywały krytykowane za inkrementalizm. Dziś w odniesieniu do kluczowych konferencji – NeurIPS, ICML, ICLR – udział chińskich zespołów rośnie zauważalnie. W dziedzinie Computer Vision czy optymalizacji sprzętowej wyznaczają standardy. Ich system akademicki, ściśle powiązany z celami przemysłowymi, premiuje rozwiązania działające w logistyce, systemach nadzoru czy autonomicznych pojazdach.

Chiny uchodzą za fabrykę świata. Czy są w stanie powtórzyć ten sukces, jeśli chodzi o ilość i jakość prac naukowych? Chyba powiedziały: “potrzymaj(cie) nam kawę – pokażemy”.
Stany Zjednoczone z kolei badają tzw. zachowania emergentne* przy skali, której nikt inny nie jest w stanie osiągnąć. Tym samym stanowią „szczyt piramidy”, gdzie kilka prac rocznie zmienia paradygmat całej branży. Chiny dominują w „długim ogonie” – tysiącach publikacji adaptujących te odkrycia do medycyny, transportu czy rolnictwa. Fundamentalne kontra aplikacyjne – oba podejścia mają swoje znaczenie. (Przy okazji, polecam swój tekst o innowacjach inspirowany książką „Przełomowe innowacje”.)
* To takie zachowania lub cechy, które widoczne są dopiero na poziomie całego systemu, mimo że nie są wprost widoczne w pojedynczych jego częściach. Przykładowo, pojedyncza mrówka nie ma Google Maps, ale kolonia potrafi tworzyć ścieżki do jedzenia, poruszać się po nich i efektywnie je optymalizować.
Europa – etyka i „kultura ostrożności”
Europa wciąż pozostaje inkubatorem talentów. Wielu autorów przełomowych prac wykształciło się na europejskich uczelniach. Problem polega na tym, że komercjalizacja innowacji często następuje poza kontynentem.
Przyczyną nie jest wyłącznie brak kapitału. Coraz częściej mówi się o „kulturze ostrożności”. Europejskie środowisko regulacyjne – z AI Act jako symbolem – kładzie nacisk na bezpieczeństwo i etykę. Europa przoduje w publikacjach z zakresu XAI (wyjaśnialna sztuczna inteligencja), governance czy bezpieczeństwa systemów AI.

Jednak przełomowe prace nad LLM wymagają dostępu do klastrów tysięcy GPU, których europejskie uniwersytety zazwyczaj nie posiadają. Innowacyjność przesuwa się więc w stronę teorii matematycznej i optymalizacji algorytmów – tam, gdzie bariera infrastrukturalna jest niższa.
Moim zdaniem, choć to chyba łatwo udowodnić, Europa częściej przedkłada minimalizowanie ryzyka nad eksperymentowanie. Zgłaszali się do mnie inwestorzy, mamy programy dotacyjne – ale (zapewne należałoby dodać słowo „niemal”) w każdym przypadku muszę wykazać, co chcę robić, co dokładnie kupię, kiedy i ile zarobię, jakie powstaną technologie. W obszarze AI, gdzie za rok możemy mieć dostęp do kompletnie innych technologii, takie podejście nie ma sensu. Na razie nie skorzystałem z żadnej z tych opcji.
To dość zaskakujące: kontynent, który współtworzył fundamenty nowoczesnej AI, ma trudność z budową globalnych czempionów.
Demokratyzacja nauki przez AI
Jest jeszcze jeden, mniej oczywisty wątek. Narzędzia AI demokratyzują naukę.
Zaawansowane chatboty są dziś wykorzystywane do redakcji i korekty tekstów naukowych. Dla badaczy z Chin, Europy czy Ameryki Łacińskiej, dla których angielski nie jest językiem ojczystym, oznacza to wyrównanie szans. Zamiast koncentrować się na stylistyce, mogą skupić się na merytoryce. W dłuższej perspektywie może to zwiększyć cytowalność prac spoza anglosaskiego kręgu kulturowego i przyspieszyć globalne rozproszenie jakości badań. (Pamiętajcie, uważamy na halucynacje i nie działamy bezmyślnie, w tym metodą kopiuj-wklej ;))
Swoją drogą, to kolejny ciekawy fakt: narzędzia tworzone w USA mogą przyczyniać się do relatywnego zmniejszenia amerykańskiej przewagi w sferze publikacyjnej.

Różne punkty widzenia zawsze były motorem dla nauki – pozwalały kwestionować nienajlepsze założenia. Jeśli język nie będzie istotną barierą, postęp w nauce może jeszcze bardziej przyspieszyć.
Z drugiej strony zdają się powstawać „strategiczne bloki edukacyjne”. Przykładowo, jedne regiony nawiązują współpracę z Chinami, inne ją ograniczają, co prowadzi do tego, że zamiast zintegrowanej społeczności naukowej zaczynamy obserwować równoległe ekosystemy.
Era romantycznie rozumianej „otwartej nauki” – przynajmniej w obszarach o znaczeniu strategicznym dla przyszłości świata – chyba dobiega końca. A przynajmniej naciskamy na pauzę.
Co to oznacza dla Polski i Europy?
Polska ma silne zaplecze naukowe i inżynieryjne oraz rosnącą świadomość potrzeby transformacji cyfrowej; ponadto dojrzewamy, by odważnie powiedzieć, że nie mamy się czego wstydzić, jeśli chodzi o kapitał ludzki. Wielu czołowych badaczy i inżynierów z Polski stoi za sukcesami amerykańskich dużych modeli językowych i tamtejszych startupów. Skoro udało im się przebić do grona absolutnie topowych specjalistów, to oznacza, że tworząc odpowiednie warunki tu, na miejscu, mamy szanse powtórzyć ich sukces. Wiem, że to złożony temat – i o tym będę pisać w jednym z kolejnych tekstów – ale to nie brak talentu i chęci jest problemem.
Jeśli chodzi o otoczenie biznesowe i polityczne, na poziomie krajowym i europejskim potrzebujemy:
- inwestycji w kompetencje i zatrzymanie talentów;
- wsparcia badań podstawowych;
- budowy lokalnych centrów danych;
- takich regulacji, które nie zduszą innowacji;
- lepszej współpracy między nauką a biznesem (w tym sensownych zasad, które to regulują).
Ludzie nie podążają wyłącznie za najlepszym uniwersytetem. Ba, nawet nie za jedną czy drugą firmą, z którymi utożsamiamy dany kraj. Czynników jest wiele więcej i warto, abyśmy dbali choćby o dostęp do mocy obliczeniowej i o infrastrukturę. Ale też potrzebna jest kultura akceptująca ryzyko oraz poczucie realnego wpływu (po prostu).

Polska i Europa potrzebują przemyślanych (to najważniejsze), dużych i odważnych inwestycji, by wzmocnić swoją pozycję w branży AI.
Sztuczna inteligencja powinna być traktowana jako narzędzie wspierające ludzi, a nie zastępujące ich i ich osąd. Europa próbuje narzucić pewną narrację w tym zakresie. Jak dobrze to robi i – przepraszam, bo to źle zabrzmi – opłacalnie dla nas, pokaże kilka najbliższych lat, które zapewne utrwalą jakiś stan rzeczy na długo (jak to było w przypadku social mediów). Mam nadzieję, że na narracji się nie skończy i jako Polska i Europa mimo wszystko będziemy mieć rosnący wpływ na rozwój AI, a „opóźnienia” wykorzystamy jako 1) powód do szukania innych dróg, jeśli chodzi o sztuczną inteligencję, a szerzej: 2) lekcję w odniesieniu do kolejnych innowacji (branża kosmiczna?, komputery kwantowe?, B2M?).
W tym tekście to tyle! Jak zawsze zapraszam do subskrypcji newslettera.
