AI boom czy bańka? Co naprawdę mówią liczby z 2025 roku
Narracja o sztucznej inteligencji w 2025 r. przypomina rynek w szczycie gorączki złota. Z jednej strony – rekordowe wyceny (Nvidia jako najcenniejsza spółka świata), prawie bilion dolarów zadeklarowanych na infrastrukturę AI, kapitał VC płynący szerokim strumieniem do kilku laboratoriów frontierowych. Z drugiej – raport MIT mówiący, że 95% inicjatyw generatywnej AI w firmach kończy się porażką. Dla wielu to brzmi jak przepis na spektakularną bańkę.
A jednak, gdy spojrzymy nie na nagłówki, ale na strumień pieniędzy i realne użycie w przedsiębiorstwach, obraz jest wyraźnie inny: to nie klasyczna bańka, tylko bardzo szybki – i bardzo nierówno rozłożony – boom technologiczny.
Ten wpis opiera się na najnowszych danych Menlo Ventures o stanie generatywnej AI w przedsiębiorstwach na koniec 2025 r. i próbuje odpowiedzieć na jedno pytanie:
czy to, co widzimy, to przegrzanie, czy raczej początek długiego cyklu transformacji?
1. Skala: AI jako najszybciej rosnąca kategoria software w historii
Zacznijmy od twardych liczb.
Enterprise AI – wydatki firm na generatywną AI – urosły z ok. 1,7 mld USD (2023) do 37 mld USD (2025) i stanowią już ok. 6% globalnego rynku SaaS.
W samym 2025 r. firmy wydały na generatywną AI około 37 mld USD, z czego:
- ok. 19 mld USD trafiło do warstwy aplikacyjnej (produkty używane przez użytkowników),
- ok. 18 mld USD – do warstwy infrastruktury (modele, trening, narzędzia danych).
W ciągu trzech lat od debiutu ChatGPT pojawiło się:
- co najmniej 10 produktów z przychodami > 1 mld USD ARR,
- ok. 50 produktów z przychodami > 100 mln USD ARR.
To tempo jest bez precedensu. Dla porównania: SaaS-owi giganci, którzy definiowali poprzednie pokolenie software’u (Salesforce, ServiceNow, Workday), budowali podobne poziomy przychodów w dekadę, nie w trzy lata.
Systemowo rzecz ujmując:
- po stronie podaży mamy klasyczne sygnały bańki: gigantyczny CAPEX, superskoncentrowane inwestycje, efekt „winner-takes-all” wokół kilku modeli foundation,
- po stronie popytu widzimy jednak coś, co z bańką słabo się klei:
szeroką, dystrybuowaną adopcję, realne przychody i mierzalne zyski produktywności.
2. Jak AI wchodzi do firm: od „zbudujemy sami” do „kupujemy, co działa”
Ciekawe jest nie tylko to, ile firm wydaje na AI, ale jak te pieniądze płyną.
Jeszcze w 2024 r. panowało przekonanie, że duże przedsiębiorstwa będą budować większość rozwiązań AI we własnym zakresie. Symbolami tego podejścia były m.in. BloombergGPT (finanse) i Wallaby Walmarta (retail). Dane Menlo pokazywały wtedy względną równowagę:
- ok. 47% rozwiązań AI było budowanych wewnętrznie,
- ok. 53% – kupowanych jako produkty zewnętrzne.
W 2025 r. proporcje wywróciły się:
76% przypadków użycia AI w firmach jest dziś kupowanych, a tylko 24% budowanych od zera w środku organizacji.
Dlaczego? Tu przydaje się prosty eksperyment myślowy:
wyobraź sobie CIO dużej organizacji, który ma wybór:
- zbudować własny system AI (zespół, dane, MLOps, bezpieczeństwo, integracje),
- albo wdrożyć gotowy produkt, który już dowozi 10–20% poprawy produktywności w konkretnym procesie.
W warunkach presji na wyniki i ograniczonej podaży talentu ML odpowiedź jest coraz częściej trywialna. Dane to potwierdzają:
47% „dealów AI” dochodzi do produkcji, vs tylko 25% w tradycyjnym SaaS.
To jest bardzo silny sygnał: jeśli już firma na serio zabierze się do wdrożenia AI, to:
- zwykle kończy się to realnym deploymentem,
- a nie kolejnym POC-em, który ląduje w szufladzie.
3. PLG i „shadow AI”: adopcja oddolna bije klasyczny enterprise
Kolejny ważny element układanki: kto tak naprawdę „wnosi” AI do firm.
27% wydatków na aplikacyjną AI płynie przez ścieżki product-led growth (PLG) – prawie 4× częściej niż w klasycznym software (ok. 7%).
PLG – product-led growth – to model, w którym użytkownik:
- sam znajduje produkt (często w wersji free / self-serve),
- testuje go w praktyce,
- a dopiero potem pojawia się formalny zakup na poziomie organizacji.
Jeśli dodamy do tego tzw. shadow AI adoption – pracowników płacących prywatnie za narzędzia typu ChatGPT Plus i używających ich do pracy – udział PLG może realnie sięgać blisko 40% wydatków na aplikacje AI.
Typowy scenariusz wygląda tak:
- programista instaluje nowy edytor z AI (np. Cursor),
- zaczyna używać go indywidualnie,
- narzędzie zakorzenia się w codziennym workflow,
- po kilku miesiącach zespół mówi: „OK, kupmy to normalnie na całą organizację”.
To nie jest margines – to główna ścieżka adopcji dla wielu narzędzi.
Cursor doszedł do ok. 200 mln USD przychodu zanim zatrudnił pierwszego klasycznego enterprise salesa.
Systemowo: centrala IT traci monopol na wybór narzędzi, a decyzje zakupowe są coraz częściej emergentnym efektem tysięcy indywidualnych wyborów użytkowników.
4. Startupy kontra giganci: kto wygrywa, gdzie?
W warstwie aplikacyjnej obraz jest zaskakująco jednoznaczny:
Startupy zgarniają ok. 63% przychodów, czyli prawie 2 dolary za każdy 1 dolar trafiający do dużych incumbentów.
Na papierze nie powinno tak być. Incumbenci mają:
- kanały sprzedaży,
- dane historyczne,
- relacje z CIO,
- zasoby finansowe.
A jednak w kluczowych kategoriach to AI-native startupy wygrywają sprint produktowy.
Kilka przykładów funkcji:
- Product + engineering (71% udziału startupów)
GitHub Copilot miał wszystkie przewagi strukturalne, ale Cursor wygrał szybkością dowożenia funkcji: kontekst na poziomie repo, multi-file editing, natural language commands, agenci do refaktoryzacji. Do tego model-agnostyczne podejście – możliwość użycia najlepszego modelu w danym momencie, zamiast czekać na integrację w ekosystemie jednego partnera. - Sales (78% udziału startupów)
Narzędzia typu Clay czy Actively atakują to, czego Salesforce „nie dotyka”: research, personalizacja, enrichment na danych nieustrukturyzowanych (web, social, e-maile). W efekcie stają się rzeczywistą warstwą pracy handlowców, a CRM schodzi do roli pasywnego systemu zapisu. - Finanse i operacje (91% udziału startupów)
W mocno regulowanych domenach incumbenci (np. Intuit) mają tak wysokie wymagania co do jakości i zgodności, że trudno im szybko dowozić produkty „AI-native”. W powstałą lukę wchodzą startupy budujące AI-first ERPy z automatyzacją w czasie rzeczywistym.
Kiedy jednak zejdziemy w dół stosu, obraz się odwraca:
- w infrastrukturze danych i monitoringu (Databricks, Snowflake, MongoDB, Datadog)
incumbenci nadal mają ok. 56% udziału – nowe aplikacje AI najczęściej buduje się na już znanych platformach.
Tu system jest prosty:
- warstwa aplikacyjna jest plastyczna – eksperyment, iteracja, PLG, konkurencja produktowa,
- warstwa infrastruktury jest lepka – migracje są kosztowne, ryzyko operacyjne wysokie, a zaufanie do sprawdzonego stacku ma realną wartość.
5. Trzy rynki aplikacji: działowe, wertykalne, horyzontalne
Warstwa aplikacyjna AI (ok. 19 mld USD w 2025 r.) dzieli się na trzy logiczne segmenty:
- AI działowe (departmental) – ok. 7,3 mld USD,
- AI wertykalne (vertical) – ok. 3,5 mld USD,
- AI horyzontalne (horizontal) – ok. 8,4 mld USD.
5.1. Departmental AI: programowanie jako pierwszy „killer use case”
Coding to dziś największa pojedyncza kategoria w aplikacyjnej AI: ok. 4 mld USD (55% departmental spend), wzrost z ok. 550 mln do 4 mld w rok.
Około 50% developerów używa narzędzi AI codziennie (w najlepszych organizacjach – ok. 65%). Zespoły raportują ≥15% wzrost velocity w całym cyklu SDLC – od prototypowania, przez refaktoryzację, po QA i deployment.
Warto zdefiniować dwa pojęcia:
Code completion – modele przewidujące kolejne linie kodu (w praktyce: turbo-autouzupełnianie IDE).
Code agents – bardziej autonomiczne systemy, które potrafią zrozumieć repo, zaplanować modyfikacje, wprowadzić zmiany i przygotować PR.
Skok z 550 mln do 4 mld jest tak gwałtowny, bo modele osiągnęły:
- kontekst na poziomie całego repozytorium,
- zdolność wykonywania wielostopniowych zadań (nie tylko „dokończ funkcję”).
Poza programowaniem AI działowe rośnie również w:
- IT ops – ok. 700 mln (incydenty, zarządzanie infrastrukturą),
- marketingu – ok. 660 mln (content, optymalizacja kampanii),
- customer success – ok. 630 mln (routing ticketów, analiza sentymentu, proaktywne akcje),
- designie i HR.
Schemat jest podobny: wygrywają procesy:
- powtarzalne,
- dobrze mierzalne,
- z szybkim feedback loopem (widać, że jest lepiej / taniej).
5.2. Vertical AI: służba zdrowia jako główny poligon
Vertical AI to ok. 3,5 mld USD w 2025 r. – prawie 3× więcej niż rok wcześniej.
Sam healthcare to ok. 1,5 mld USD (43% tej puli).
Dobry przykład to ambient scribes – systemy, które:
- słuchają wizyty lekarskiej,
- generują dokumentację,
- redukują czas, który lekarz spędza przed komputerem.
Rynek scribe’ów osiągnął ok. 600 mln USD i wygenerował kilku liderów (Nuance DAX Copilot, Abridge, Ambience). Biorąc pod uwagę, że lekarze do tej pory spędzali ok. 1 godzinę dokumentacji na 5 godzin opieki, redukcja tego czasu o >50% ma ogromny wpływ na:
- burnout,
- koszty,
- przepustowość systemu.
Poza healthcare rosną m.in.:
- legal – ok. 650 mln,
- narzędzia dla twórców – ok. 360 mln,
- government – ok. 350 mln.
Wspólny mianownik: branże historycznie niedoservicowane przez software, z dominacją pracy manualnej, tekstów, rozmów, dokumentów. Generatywna AI jest tu pierwszą technologią, która potrafi tę „mgłę procesów” obrabiać na skalowalny sposób.
5.3. Horizontal AI: dominacja copilotów
Horizontal AI to ok. 8,4 mld USD, z czego:
– 86% (ok. 7,2 mld) to copiloty,
– 10% (ok. 750 mln) to platformy agentowe,
– 5% (ok. 450 mln) to narzędzia osobistej produktywności.
Warto rozróżnić:
Copilot – system wspierający człowieka (pisanie, analiza, streszczenia, research), ale z człowiekiem w pętli decyzyjnej.
Agent – system z większą autonomią: planuje, podejmuje działania, integruje się z innymi narzędziami, uczy się na feedbacku.
Dzisiaj królują copiloty (ChatGPT Enterprise, Claude for Work, Microsoft Copilot), ale wraz z dojrzewaniem architektur agentowych można spodziewać się przesuwania środka ciężkości z „asysty” w stronę automatyzacji całych zadań – nie tylko pojedynczych kroków.
6. Infrastruktura: 18 mld USD na „piki i łopaty”
Warstwa infrastruktury AI pochłonęła w 2025 r. ok. 18 mld USD, podzielone na:
- ok. 12,5 mld USD – foundation model APIs,
- ok. 4 mld USD – trening modeli / adaptacje,
- ok. 1,5 mld USD – infrastruktura wokół danych i orkiestracji (RAG, wektory, monitoring, orkiestracja workflow).
Ciekawe jest, że mimo hype’u na „agentów”, rzeczywiste architektury produkcyjne są nadal zaskakująco proste:
tylko ok. 16% wdrożeń enterprise i 27% startupowych można uczciwie nazwać prawdziwymi agentami (LLM planuje, działa, obserwuje, adaptuje się).
Reszta to:
- proste sekwencje wywołań modelu,
- routery promptów,
- klasyczne RAG z kilkoma krokami logiki.
Dominujące wzorce personalizacji to nadal:
- prompt engineering,
- RAG,
- dopiero dalej – fine-tuning, tool-calling, RL.
To pokazuje, że:
- złożoność architektur rośnie wolno,
- większość wartości da się dziś wycisnąć z „prostej” architektury, jeśli dobrze dobrać use-case i zadbać o dane.
7. Rewolucja na szczycie LLM: Anthropic, Google, OpenAI i cień open source
Na poziomie dostawców LLM 2025 r. przyniósł znaczące przesunięcia:
- Anthropic – ok. 40% udziału w wydatkach enterprise na LLM APIs,
- OpenAI – ok. 27% (spadek z ok. 50% w 2023 r.),
- Google – ok. 21% (wzrost z 7% w 2023 r.).
Łącznie trójka ta zgarnia ok. 88% rynku enterprise, reszta (ok. 12%) rozkłada się na Llamę, Cohere, Mistrala i długi ogon.
Kluczowy driver przewagi Anthropic to kodowanie:
w segmencie codingu Anthropic ma ok. 54% udziału, OpenAI ok. 21%.
Od połowy 2024 r. modele Claude 3.5/4.5 utrzymują stabilną przewagę na benchmarkach codingowych (np. SWE-bench Verified), a co ważniejsze – w realnym odczuciu developerów. To rzadki przypadek stosunkowo długotrwałej dominacji w obszarze frontierowym.
A co z open source?
- udział open-source’owych LLM w enterprise spadł z ok. 19% do 11%,
- Llama pozostaje najpopularniejszym modelem otwartym w firmach, ale brak nowych dużych release’ów w 2025 r. spowalnia jej momentum,
- chińskie modele open source (Qwen, DeepSeek, GLM itd.) to ok. 1% enterprise usage, ale ich adopcja w społeczności developerów rośnie bardzo szybko (m.in. przez vLLM i OpenRouter).
To ciekawy przykład rozjechania się dwóch światów:
- enterprise – ostrożny, nastawiony na compliance, preferujący modele zamknięte,
- startupowo-indie – agresywnie eksperymentujące z modelami open-weight, w tym chińskimi, i przesuwające granicę tego, co da się uruchomić wydajnie na własnej infrastrukturze.
Systemowo: innowacja architektoniczna i kosztowa dzieje się w dużej mierze w świecie open source, ale monetyzacja na razie głównie po stronie zamkniętych providerów.
8. Bańka czy boom? Jak to złożyć w spójną całość
Spróbujmy teraz połączyć wszystkie elementy.
Z jednej strony:
- raporty mówiące o 95% nieudanych inicjatyw AI w firmach,
- spektakularne wyceny firm infrastrukturalnych,
- bardzo skoncentrowany kapitał spekulacyjny.
Z drugiej:
- 37 mld USD realnego wydatku,
- kilkanaście produktów z przychodami > 100 mln / 1 mld USD,
- wysokie konwersje (47% projektów AI przechodzi do produkcji),
- mierzalne zyski produktywności (np. 15%+ w development teams, duże oszczędności w healthcare).
Kluczem jest zrozumienie, że:
w fazie przełomowego boomu technologicznego większość lokalnych eksperymentów musi się nie udać, żeby kilka globalnych zwycięzców mogło znaleźć produkt-rynek.
Te „95% porażek” to niekoniecznie sygnał bańki, tylko koszt eksperymentu w skali systemu:
- firmy testują dziesiątki przypadków użycia,
- część kończy się w ślepym zaułku,
- ale kilka daje zyski tak duże, że uzasadniają całą resztę.
Czy są elementy bańkowe? Oczywiście:
- część wycen w infrastrukturze jest prawdopodobnie zbyt agresywna względem realnych przychodów,
- część CAPEX-u w hardware może okazać się nadmiarowa, jeśli popyt nie dogoni podaży compute.
Ale patrząc na popyt – a to on w długim okresie decyduje, czy bańka pęka całkowicie, czy tylko „sprowadza oczekiwania na ziemię” – widać raczej boom:
- szeroka, wielosektorowa adopcja,
- realny cashflow,
- rosnące uzależnienie kluczowych procesów od AI.
To nie jest ICO-mania 2017. Bardziej wczesne lata chmury – tylko od razu na sterydach.
9. Co dalej? Cztery wektory zmian na 2026 r.
Na koniec spójrzmy na zapowiadane przesunięcia na 2026 r. – nie jako „wróżby”, tylko jako logiczną kontynuację trendów, które już widać w danych.
- AI przebije przeciętnego programistę w codziennych zadaniach
W obszarach weryfikowalnych (kod, matematyka) nie ma oznak plateau. Frontierowe modele będą:- coraz stabilniej wygrywać z medianą ludzką w zadaniach rutynowych,
- zostawiać ludziom coraz większy udział pracy koncepcyjnej, architektonicznej, rozmowy z biznesem.
- Jevons paradox w praktyce: niższy koszt → większy wydatek
Spadek kosztu inferencji nie obniży wydatków na AI, tylko:- odblokuje wzrost wolumenu zapytań o rzędy wielkości,
- przeniesie AI z poziomu „narzędzia eksperymentalnego” na poziom „tania infrastruktura poznawcza”,
- w segmentach takich jak coding użytkownicy są zaskakująco nie-wrażliwi na cenę, jeśli w zamian dostają wyraźnie lepsze performance.
- Explainability i governance staną się mainstreamem
Wraz z rosnącą autonomią systemów:- regulatorzy będą żądać logów decyzyjnych, audytowalności i sterowalności,
- pojawi się cała warstwa narzędzi typu „AI observability + interpretability”,
- firmy będą musiały umieć odpowiedzieć nie tylko co system zrobił, ale dlaczego.
- Modele zejdą na krawędź (edge / on-device)
Spodziewany jest silny ruch:- w stronę modeli uruchamianych lokalnie na urządzeniach (telefony, laptopy, IoT),
- przy wsparciu dedykowanych niskoenergetycznych GPU / NPU od Google, Apple, Samsunga,
- z kosztem inferencji zbliżającym się do zera dla szerokiej klasy nie-frontierowych zastosowań.
To może uruchomić nową falę: AI jako funkcja każdej aplikacji, nie jako osobny produkt w chmurze.
10. Podsumowanie: boom, nie bańka – ale bardzo nierówny
Jeśli miałbym streścić całość w jednym zdaniu:
AI nie wygląda dziś jak klasyczna bańka bez fundamentów – wygląda jak ekstremalnie szybki boom, w którym wartość jest realna, ale rozłożona bardzo nierówno i okupiona gigantyczną ilością nieudanych eksperymentów.
Co to znaczy praktycznie, jeśli myślisz o budowaniu lub wdrażaniu AI?
- Po stronie produktu – wygrywa nie ten, kto ma „AI w decku”, tylko ten, kto potrafi zamienić modele w konkretne, powtarzalne wyniki biznesowe (czas, koszt, jakość).
- Po stronie organizacji – sensowna strategia to kombinacja: kupowania tego, co już działa, i budowania tam, gdzie masz unikalne dane / proces.
- Po stronie technologii – nie ma potrzeby fetyszyzować najbardziej złożonych agentów. W 80% przypadków „prosty RAG + dobry produkt” wciąż robi różnicę.
I chyba to jest najciekawsze: mimo miliardów wydanych na infrastrukturę, przewaga wciąż jest w warstwie aplikacyjnej, blisko użytkownika. Tam decyduje nie to, jaki masz GPU cluster, ale czy rozumiesz realny workflow i potrafisz tak go przeprojektować, by AI stała się w nim nie gadżetem, lecz nowym domyślnym sposobem pracy.