AI boom czy bańka? Co naprawdę mówią liczby z 2025 roku

AI boom czy bańka? Co naprawdę mówią liczby z 2025 roku

Narracja o sztucznej inteligencji w 2025 r. przypomina rynek w szczycie gorączki złota. Z jednej strony – rekordowe wyceny (Nvidia jako najcenniejsza spółka świata), prawie bilion dolarów zadeklarowanych na infrastrukturę AI, kapitał VC płynący szerokim strumieniem do kilku laboratoriów frontierowych. Z drugiej – raport MIT mówiący, że 95% inicjatyw generatywnej AI w firmach kończy się porażką. Dla wielu to brzmi jak przepis na spektakularną bańkę.

A jednak, gdy spojrzymy nie na nagłówki, ale na strumień pieniędzy i realne użycie w przedsiębiorstwach, obraz jest wyraźnie inny: to nie klasyczna bańka, tylko bardzo szybki – i bardzo nierówno rozłożony – boom technologiczny.

Ten wpis opiera się na najnowszych danych Menlo Ventures o stanie generatywnej AI w przedsiębiorstwach na koniec 2025 r. i próbuje odpowiedzieć na jedno pytanie:
czy to, co widzimy, to przegrzanie, czy raczej początek długiego cyklu transformacji?


1. Skala: AI jako najszybciej rosnąca kategoria software w historii

Zacznijmy od twardych liczb.

Enterprise AI – wydatki firm na generatywną AI – urosły z ok. 1,7 mld USD (2023) do 37 mld USD (2025) i stanowią już ok. 6% globalnego rynku SaaS.

W samym 2025 r. firmy wydały na generatywną AI około 37 mld USD, z czego:

  • ok. 19 mld USD trafiło do warstwy aplikacyjnej (produkty używane przez użytkowników),
  • ok. 18 mld USD – do warstwy infrastruktury (modele, trening, narzędzia danych).

W ciągu trzech lat od debiutu ChatGPT pojawiło się:

  • co najmniej 10 produktów z przychodami > 1 mld USD ARR,
  • ok. 50 produktów z przychodami > 100 mln USD ARR.

To tempo jest bez precedensu. Dla porównania: SaaS-owi giganci, którzy definiowali poprzednie pokolenie software’u (Salesforce, ServiceNow, Workday), budowali podobne poziomy przychodów w dekadę, nie w trzy lata.

Systemowo rzecz ujmując:

  • po stronie podaży mamy klasyczne sygnały bańki: gigantyczny CAPEX, superskoncentrowane inwestycje, efekt „winner-takes-all” wokół kilku modeli foundation,
  • po stronie popytu widzimy jednak coś, co z bańką słabo się klei:
    szeroką, dystrybuowaną adopcję, realne przychody i mierzalne zyski produktywności.

2. Jak AI wchodzi do firm: od „zbudujemy sami” do „kupujemy, co działa”

Ciekawe jest nie tylko to, ile firm wydaje na AI, ale jak te pieniądze płyną.

Jeszcze w 2024 r. panowało przekonanie, że duże przedsiębiorstwa będą budować większość rozwiązań AI we własnym zakresie. Symbolami tego podejścia były m.in. BloombergGPT (finanse) i Wallaby Walmarta (retail). Dane Menlo pokazywały wtedy względną równowagę:

  • ok. 47% rozwiązań AI było budowanych wewnętrznie,
  • ok. 53% – kupowanych jako produkty zewnętrzne.

W 2025 r. proporcje wywróciły się:

76% przypadków użycia AI w firmach jest dziś kupowanych, a tylko 24% budowanych od zera w środku organizacji.

Dlaczego? Tu przydaje się prosty eksperyment myślowy:
wyobraź sobie CIO dużej organizacji, który ma wybór:

  1. zbudować własny system AI (zespół, dane, MLOps, bezpieczeństwo, integracje),
  2. albo wdrożyć gotowy produkt, który już dowozi 10–20% poprawy produktywności w konkretnym procesie.

W warunkach presji na wyniki i ograniczonej podaży talentu ML odpowiedź jest coraz częściej trywialna. Dane to potwierdzają:

47% „dealów AI” dochodzi do produkcji, vs tylko 25% w tradycyjnym SaaS.

To jest bardzo silny sygnał: jeśli już firma na serio zabierze się do wdrożenia AI, to:

  • zwykle kończy się to realnym deploymentem,
  • a nie kolejnym POC-em, który ląduje w szufladzie.

3. PLG i „shadow AI”: adopcja oddolna bije klasyczny enterprise

Kolejny ważny element układanki: kto tak naprawdę „wnosi” AI do firm.

27% wydatków na aplikacyjną AI płynie przez ścieżki product-led growth (PLG) – prawie 4× częściej niż w klasycznym software (ok. 7%).

PLGproduct-led growth – to model, w którym użytkownik:

  • sam znajduje produkt (często w wersji free / self-serve),
  • testuje go w praktyce,
  • a dopiero potem pojawia się formalny zakup na poziomie organizacji.

Jeśli dodamy do tego tzw. shadow AI adoption – pracowników płacących prywatnie za narzędzia typu ChatGPT Plus i używających ich do pracy – udział PLG może realnie sięgać blisko 40% wydatków na aplikacje AI.

Typowy scenariusz wygląda tak:

  1. programista instaluje nowy edytor z AI (np. Cursor),
  2. zaczyna używać go indywidualnie,
  3. narzędzie zakorzenia się w codziennym workflow,
  4. po kilku miesiącach zespół mówi: „OK, kupmy to normalnie na całą organizację”.

To nie jest margines – to główna ścieżka adopcji dla wielu narzędzi.
Cursor doszedł do ok. 200 mln USD przychodu zanim zatrudnił pierwszego klasycznego enterprise salesa.

Systemowo: centrala IT traci monopol na wybór narzędzi, a decyzje zakupowe są coraz częściej emergentnym efektem tysięcy indywidualnych wyborów użytkowników.


4. Startupy kontra giganci: kto wygrywa, gdzie?

W warstwie aplikacyjnej obraz jest zaskakująco jednoznaczny:

Startupy zgarniają ok. 63% przychodów, czyli prawie 2 dolary za każdy 1 dolar trafiający do dużych incumbentów.

Na papierze nie powinno tak być. Incumbenci mają:

  • kanały sprzedaży,
  • dane historyczne,
  • relacje z CIO,
  • zasoby finansowe.

A jednak w kluczowych kategoriach to AI-native startupy wygrywają sprint produktowy.

Kilka przykładów funkcji:

  • Product + engineering (71% udziału startupów)
    GitHub Copilot miał wszystkie przewagi strukturalne, ale Cursor wygrał szybkością dowożenia funkcji: kontekst na poziomie repo, multi-file editing, natural language commands, agenci do refaktoryzacji. Do tego model-agnostyczne podejście – możliwość użycia najlepszego modelu w danym momencie, zamiast czekać na integrację w ekosystemie jednego partnera.
  • Sales (78% udziału startupów)
    Narzędzia typu Clay czy Actively atakują to, czego Salesforce „nie dotyka”: research, personalizacja, enrichment na danych nieustrukturyzowanych (web, social, e-maile). W efekcie stają się rzeczywistą warstwą pracy handlowców, a CRM schodzi do roli pasywnego systemu zapisu.
  • Finanse i operacje (91% udziału startupów)
    W mocno regulowanych domenach incumbenci (np. Intuit) mają tak wysokie wymagania co do jakości i zgodności, że trudno im szybko dowozić produkty „AI-native”. W powstałą lukę wchodzą startupy budujące AI-first ERPy z automatyzacją w czasie rzeczywistym.

Kiedy jednak zejdziemy w dół stosu, obraz się odwraca:

  • w infrastrukturze danych i monitoringu (Databricks, Snowflake, MongoDB, Datadog)
    incumbenci nadal mają ok. 56% udziału – nowe aplikacje AI najczęściej buduje się na już znanych platformach.

Tu system jest prosty:

  • warstwa aplikacyjna jest plastyczna – eksperyment, iteracja, PLG, konkurencja produktowa,
  • warstwa infrastruktury jest lepka – migracje są kosztowne, ryzyko operacyjne wysokie, a zaufanie do sprawdzonego stacku ma realną wartość.

5. Trzy rynki aplikacji: działowe, wertykalne, horyzontalne

Warstwa aplikacyjna AI (ok. 19 mld USD w 2025 r.) dzieli się na trzy logiczne segmenty:

  1. AI działowe (departmental) – ok. 7,3 mld USD,
  2. AI wertykalne (vertical) – ok. 3,5 mld USD,
  3. AI horyzontalne (horizontal) – ok. 8,4 mld USD.

5.1. Departmental AI: programowanie jako pierwszy „killer use case”

Coding to dziś największa pojedyncza kategoria w aplikacyjnej AI: ok. 4 mld USD (55% departmental spend), wzrost z ok. 550 mln do 4 mld w rok.

Około 50% developerów używa narzędzi AI codziennie (w najlepszych organizacjach – ok. 65%). Zespoły raportują ≥15% wzrost velocity w całym cyklu SDLC – od prototypowania, przez refaktoryzację, po QA i deployment.

Warto zdefiniować dwa pojęcia:

Code completion – modele przewidujące kolejne linie kodu (w praktyce: turbo-autouzupełnianie IDE).
Code agents – bardziej autonomiczne systemy, które potrafią zrozumieć repo, zaplanować modyfikacje, wprowadzić zmiany i przygotować PR.

Skok z 550 mln do 4 mld jest tak gwałtowny, bo modele osiągnęły:

  • kontekst na poziomie całego repozytorium,
  • zdolność wykonywania wielostopniowych zadań (nie tylko „dokończ funkcję”).

Poza programowaniem AI działowe rośnie również w:

  • IT ops – ok. 700 mln (incydenty, zarządzanie infrastrukturą),
  • marketingu – ok. 660 mln (content, optymalizacja kampanii),
  • customer success – ok. 630 mln (routing ticketów, analiza sentymentu, proaktywne akcje),
  • designie i HR.

Schemat jest podobny: wygrywają procesy:

  • powtarzalne,
  • dobrze mierzalne,
  • z szybkim feedback loopem (widać, że jest lepiej / taniej).

5.2. Vertical AI: służba zdrowia jako główny poligon

Vertical AI to ok. 3,5 mld USD w 2025 r. – prawie 3× więcej niż rok wcześniej.
Sam healthcare to ok. 1,5 mld USD (43% tej puli).

Dobry przykład to ambient scribes – systemy, które:

  • słuchają wizyty lekarskiej,
  • generują dokumentację,
  • redukują czas, który lekarz spędza przed komputerem.

Rynek scribe’ów osiągnął ok. 600 mln USD i wygenerował kilku liderów (Nuance DAX Copilot, Abridge, Ambience). Biorąc pod uwagę, że lekarze do tej pory spędzali ok. 1 godzinę dokumentacji na 5 godzin opieki, redukcja tego czasu o >50% ma ogromny wpływ na:

  • burnout,
  • koszty,
  • przepustowość systemu.

Poza healthcare rosną m.in.:

  • legal – ok. 650 mln,
  • narzędzia dla twórców – ok. 360 mln,
  • government – ok. 350 mln.

Wspólny mianownik: branże historycznie niedoservicowane przez software, z dominacją pracy manualnej, tekstów, rozmów, dokumentów. Generatywna AI jest tu pierwszą technologią, która potrafi tę „mgłę procesów” obrabiać na skalowalny sposób.

5.3. Horizontal AI: dominacja copilotów

Horizontal AI to ok. 8,4 mld USD, z czego:
86% (ok. 7,2 mld) to copiloty,
10% (ok. 750 mln) to platformy agentowe,
5% (ok. 450 mln) to narzędzia osobistej produktywności.

Warto rozróżnić:

Copilot – system wspierający człowieka (pisanie, analiza, streszczenia, research), ale z człowiekiem w pętli decyzyjnej.
Agent – system z większą autonomią: planuje, podejmuje działania, integruje się z innymi narzędziami, uczy się na feedbacku.

Dzisiaj królują copiloty (ChatGPT Enterprise, Claude for Work, Microsoft Copilot), ale wraz z dojrzewaniem architektur agentowych można spodziewać się przesuwania środka ciężkości z „asysty” w stronę automatyzacji całych zadań – nie tylko pojedynczych kroków.


6. Infrastruktura: 18 mld USD na „piki i łopaty”

Warstwa infrastruktury AI pochłonęła w 2025 r. ok. 18 mld USD, podzielone na:

  • ok. 12,5 mld USDfoundation model APIs,
  • ok. 4 mld USDtrening modeli / adaptacje,
  • ok. 1,5 mld USDinfrastruktura wokół danych i orkiestracji (RAG, wektory, monitoring, orkiestracja workflow).

Ciekawe jest, że mimo hype’u na „agentów”, rzeczywiste architektury produkcyjne są nadal zaskakująco proste:

tylko ok. 16% wdrożeń enterprise i 27% startupowych można uczciwie nazwać prawdziwymi agentami (LLM planuje, działa, obserwuje, adaptuje się).

Reszta to:

  • proste sekwencje wywołań modelu,
  • routery promptów,
  • klasyczne RAG z kilkoma krokami logiki.

Dominujące wzorce personalizacji to nadal:

  1. prompt engineering,
  2. RAG,
  3. dopiero dalej – fine-tuning, tool-calling, RL.

To pokazuje, że:

  • złożoność architektur rośnie wolno,
  • większość wartości da się dziś wycisnąć z „prostej” architektury, jeśli dobrze dobrać use-case i zadbać o dane.

7. Rewolucja na szczycie LLM: Anthropic, Google, OpenAI i cień open source

Na poziomie dostawców LLM 2025 r. przyniósł znaczące przesunięcia:

  • Anthropic – ok. 40% udziału w wydatkach enterprise na LLM APIs,
  • OpenAI – ok. 27% (spadek z ok. 50% w 2023 r.),
  • Google – ok. 21% (wzrost z 7% w 2023 r.).

Łącznie trójka ta zgarnia ok. 88% rynku enterprise, reszta (ok. 12%) rozkłada się na Llamę, Cohere, Mistrala i długi ogon.

Kluczowy driver przewagi Anthropic to kodowanie:

w segmencie codingu Anthropic ma ok. 54% udziału, OpenAI ok. 21%.

Od połowy 2024 r. modele Claude 3.5/4.5 utrzymują stabilną przewagę na benchmarkach codingowych (np. SWE-bench Verified), a co ważniejsze – w realnym odczuciu developerów. To rzadki przypadek stosunkowo długotrwałej dominacji w obszarze frontierowym.

A co z open source?

  • udział open-source’owych LLM w enterprise spadł z ok. 19% do 11%,
  • Llama pozostaje najpopularniejszym modelem otwartym w firmach, ale brak nowych dużych release’ów w 2025 r. spowalnia jej momentum,
  • chińskie modele open source (Qwen, DeepSeek, GLM itd.) to ok. 1% enterprise usage, ale ich adopcja w społeczności developerów rośnie bardzo szybko (m.in. przez vLLM i OpenRouter).

To ciekawy przykład rozjechania się dwóch światów:

  • enterprise – ostrożny, nastawiony na compliance, preferujący modele zamknięte,
  • startupowo-indie – agresywnie eksperymentujące z modelami open-weight, w tym chińskimi, i przesuwające granicę tego, co da się uruchomić wydajnie na własnej infrastrukturze.

Systemowo: innowacja architektoniczna i kosztowa dzieje się w dużej mierze w świecie open source, ale monetyzacja na razie głównie po stronie zamkniętych providerów.


8. Bańka czy boom? Jak to złożyć w spójną całość

Spróbujmy teraz połączyć wszystkie elementy.

Z jednej strony:

  • raporty mówiące o 95% nieudanych inicjatyw AI w firmach,
  • spektakularne wyceny firm infrastrukturalnych,
  • bardzo skoncentrowany kapitał spekulacyjny.

Z drugiej:

  • 37 mld USD realnego wydatku,
  • kilkanaście produktów z przychodami > 100 mln / 1 mld USD,
  • wysokie konwersje (47% projektów AI przechodzi do produkcji),
  • mierzalne zyski produktywności (np. 15%+ w development teams, duże oszczędności w healthcare).

Kluczem jest zrozumienie, że:

w fazie przełomowego boomu technologicznego większość lokalnych eksperymentów musi się nie udać, żeby kilka globalnych zwycięzców mogło znaleźć produkt-rynek.

Te „95% porażek” to niekoniecznie sygnał bańki, tylko koszt eksperymentu w skali systemu:

  • firmy testują dziesiątki przypadków użycia,
  • część kończy się w ślepym zaułku,
  • ale kilka daje zyski tak duże, że uzasadniają całą resztę.

Czy są elementy bańkowe? Oczywiście:

  • część wycen w infrastrukturze jest prawdopodobnie zbyt agresywna względem realnych przychodów,
  • część CAPEX-u w hardware może okazać się nadmiarowa, jeśli popyt nie dogoni podaży compute.

Ale patrząc na popyt – a to on w długim okresie decyduje, czy bańka pęka całkowicie, czy tylko „sprowadza oczekiwania na ziemię” – widać raczej boom:

  • szeroka, wielosektorowa adopcja,
  • realny cashflow,
  • rosnące uzależnienie kluczowych procesów od AI.

To nie jest ICO-mania 2017. Bardziej wczesne lata chmury – tylko od razu na sterydach.


9. Co dalej? Cztery wektory zmian na 2026 r.

Na koniec spójrzmy na zapowiadane przesunięcia na 2026 r. – nie jako „wróżby”, tylko jako logiczną kontynuację trendów, które już widać w danych.

  1. AI przebije przeciętnego programistę w codziennych zadaniach
    W obszarach weryfikowalnych (kod, matematyka) nie ma oznak plateau. Frontierowe modele będą:

    • coraz stabilniej wygrywać z medianą ludzką w zadaniach rutynowych,
    • zostawiać ludziom coraz większy udział pracy koncepcyjnej, architektonicznej, rozmowy z biznesem.
  2. Jevons paradox w praktyce: niższy koszt → większy wydatek
    Spadek kosztu inferencji nie obniży wydatków na AI, tylko:

    • odblokuje wzrost wolumenu zapytań o rzędy wielkości,
    • przeniesie AI z poziomu „narzędzia eksperymentalnego” na poziom „tania infrastruktura poznawcza”,
    • w segmentach takich jak coding użytkownicy są zaskakująco nie-wrażliwi na cenę, jeśli w zamian dostają wyraźnie lepsze performance.
  3. Explainability i governance staną się mainstreamem
    Wraz z rosnącą autonomią systemów:

    • regulatorzy będą żądać logów decyzyjnych, audytowalności i sterowalności,
    • pojawi się cała warstwa narzędzi typu „AI observability + interpretability”,
    • firmy będą musiały umieć odpowiedzieć nie tylko co system zrobił, ale dlaczego.
  4. Modele zejdą na krawędź (edge / on-device)
    Spodziewany jest silny ruch:

    • w stronę modeli uruchamianych lokalnie na urządzeniach (telefony, laptopy, IoT),
    • przy wsparciu dedykowanych niskoenergetycznych GPU / NPU od Google, Apple, Samsunga,
    • z kosztem inferencji zbliżającym się do zera dla szerokiej klasy nie-frontierowych zastosowań.

To może uruchomić nową falę: AI jako funkcja każdej aplikacji, nie jako osobny produkt w chmurze.


10. Podsumowanie: boom, nie bańka – ale bardzo nierówny

Jeśli miałbym streścić całość w jednym zdaniu:

AI nie wygląda dziś jak klasyczna bańka bez fundamentów – wygląda jak ekstremalnie szybki boom, w którym wartość jest realna, ale rozłożona bardzo nierówno i okupiona gigantyczną ilością nieudanych eksperymentów.

Co to znaczy praktycznie, jeśli myślisz o budowaniu lub wdrażaniu AI?

  • Po stronie produktu – wygrywa nie ten, kto ma „AI w decku”, tylko ten, kto potrafi zamienić modele w konkretne, powtarzalne wyniki biznesowe (czas, koszt, jakość).
  • Po stronie organizacji – sensowna strategia to kombinacja: kupowania tego, co już działa, i budowania tam, gdzie masz unikalne dane / proces.
  • Po stronie technologii – nie ma potrzeby fetyszyzować najbardziej złożonych agentów. W 80% przypadków „prosty RAG + dobry produkt” wciąż robi różnicę.

I chyba to jest najciekawsze: mimo miliardów wydanych na infrastrukturę, przewaga wciąż jest w warstwie aplikacyjnej, blisko użytkownika. Tam decyduje nie to, jaki masz GPU cluster, ale czy rozumiesz realny workflow i potrafisz tak go przeprojektować, by AI stała się w nim nie gadżetem, lecz nowym domyślnym sposobem pracy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *