mkmlabs.pl
Kronika AI

80 lat rewolucji
sztucznej inteligencji

Od pierwszego sztucznego neuronu po autonomicznych agentów AI. Interaktywna historia przełomów, zim i eksplozji, które zdefiniowały naszą erę.

80+lat historii AI1943 — 2026
8epok rozwojuod narodzin po AI-native
70+przełomówodkrycia, modele, wydarzenia
1943–1969

Początki

Narodziny idei sztucznej inteligencji — od pierwszego modelu neuronu po program udający psychoterapeutę. Marzyciele, matematycy i wizjonerzy tworzą fundamenty.

1970–1979

Pierwsza zima AI

Rozczarowanie po niespełnionych obietnicach. Rządy wycofują finansowanie, naukowcy porzucają badania. AI przechodzi w stan hibernacji.

1980–1987

Systemy ekspertowe

AI wraca w formie systemów ekspertowych — programów opartych na regułach "jeśli-to". Firmy inwestują miliardy, Japonia startuje megaprojekt.

1988–1992

Druga zima AI

Systemy ekspertowe okazują się kruche i kosztowne w utrzymaniu. Japonia porzuca megaprojekt. Ale w ciszy rodzą się sieci konwolucyjne...

1993–2010

Machine Learning

Ciche odrodzenie: statystyka zastępuje symbolikę. Deep Blue pokonuje Kasparowa w szachach. Internet dostarcza dane. Hinton odmraża deep learning.

2011–2019

Deep Learning

Głębokie sieci neuronowe eksplodują. AlexNet, AlphaGo, Transformer — AI bije ludzi w kolejnych dziedzinach. GPU + duże dane = rewolucja.

2020–2024

Era LLM

Wielkie modele językowe zmieniają świat. ChatGPT trafia do 100 milionów użytkowników. Claude, Gemini, Llama — wyścig przyspiesza. AI przestaje być akademicką ciekawostką.

2025–2026

AI-Native

AI przestaje być narzędziem — staje się fundamentem. Multi-agent systems, Claude Code, vibecoding. Kto nie adaptuje się do AI-native — zostaje w tyle.

Wyścig modeli

Kto wiódł prym? 2020–2026

Pięć graczy, dziesiątki modeli, walka o pozycję lidera AI. Gwiazdki oznaczają modele, które w momencie premiery były najlepsze na świecie.

2020202120222023202420252026AnthropicOpenAIGooglexAIChiny= lider w momencie premiery
Wyścig IQ

Jak rosła inteligencja AI? 2020–2026

Szacunkowe ekwiwalenty IQ modeli AI na podstawie wyników benchmarków (MMLU, rozumowanie, kodowanie, matematyka). AI nie posiada IQ w psychometrycznym sensie — wartości są orientacyjne i służą wyłącznie do ilustracji tempa postępu. Źródło: benchmarki akademickie, Arena, MMLU, HumanEval.

IQ 85Poniżej średniejIQ 100Średnia ludzkaIQ 115Powyżej średniejIQ 130Wybitne (top 2%)8090100110120130140Ekwiwalent IQQ2 2020Q1 2022Q4 2022Q1 2023Q3 2023Q4 2023Q1 2024Q2 2024Q3 2024Q4 2024Q1 2025Q2 2025Q3 2025Q4 2025Q1 2026AnthropicOpenAIGooglexAIChiny= lider kwartału
Źródła:trackingai.org|arena.aiSzacunki na podstawie benchmarków, luty 2026
Aktualny ranking

Top 15 modeli AI na świecie

Ranking na podstawie Arena (arena.ai) — marzec 2026. Arena mierzy preferencje użytkowników w ślepych testach porównawczych na podstawie ponad 6 mln głosów. Wyniki Elo zmieniają się codziennie. Top 3 modeli mieści się w marginesie błędu.

#ModelFirmaArena Elo
1Claude Opus 4.6 (thinking)Anthropic1503
2Claude Opus 4.6Anthropic1503
3Gemini 3.1 Pro PreviewGoogle1500
4Grok-4.20 betaxAI1495
5Gemini 3 ProGoogle1486
6GPT-5.2OpenAI1481
7Gemini 3 FlashGoogle1473
8Grok-4.1 (thinking)xAI1473
9Claude Opus 4.5 (thinking)Anthropic1471
10Dola Seed 2.0ByteDance1470
11Claude Opus 4.5Anthropic1467
12Grok-4.1xAI1462
13Gemini 3 Flash (thinking)Google1461
14Claude Sonnet 4.6Anthropic1458
15GPT-5.1 HighOpenAI1457
Źródło:arena.ai/leaderboard|trackingai.orgDane z marca 2026 (przybliżone)
Polski AI

Bielik — polski orzeł wśród modeli AI

Pierwszy polski duży model językowy stworzony przez wolontariuszy. Historia, która udowadnia, że nie trzeba miliardów dolarów, żeby budować AI.

Od zera do 32 języków

2022: Fundacja SpeakLeash (Spichlerz) powstaje jako inicjatywa oddolna. Grupa wolontariuszy — programistów, naukowców i studentów — postanawia stworzyć pierwszy prawdziwy polski LLM. Pracują wieczorami i w weekendy.

Kwiecień 2024: Premiera Bielika 7B v0.1 — opartego na Mistral-7B, wytrenowanego na 70 miliardach polskich tokenów z własnym tokenizerem APT4. Nazwa pochodzi od orła bielika — symbolu polskiej natury.

2024–2025: Ewolucja do 11B parametrów (depth up-scaling), iteracje v2.0 do v2.6 z kolejnymi ulepszeniami. Bielik 11B v2.3 Instruct pobija GPT-3.5 o 21% w zadaniach po polsku.

Lipiec 2025: Bielik 11B v3 — model wielojęzyczny obsługujący 32 języki europejskie. Mniejsze wersje (1.5B i 4.5B) oparte na Qwen2.5 konkurują z modelami 2-3× większymi.

Bielik w liczbach

Parametry1.5B → 11B
Tokeny treningowe400 mld
GPU Cyfronetu450 kart
Języki (v3)32 europejskie
vs GPT-3.5 (PL)+21.2% lepszy
KosztWolontariat

Bielik vs PLLuM

Bielik = społeczność. Stworzony przez wolontariuszy SpeakLeash + Cyfronet AGH. Open source, bez budżetu państwowego.

PLLuM = państwo. Rządowy model (14.5 mln PLN), 6 instytucji naukowych, modele 12B-70B oparte na Llama. Wdrożony w mObywatelu i administracji.

Razem tworzą komplementarny ekosystem polskiej AI.

Ciekawostki

🧠

GPT nie "rozumie" języka — przewiduje następny token w sekwencji.

💰

Trening GPT-4 kosztował szacunkowo ~100 milionów dolarów. 80% kosztu to energia i GPU.

🔢

Ludzki mózg ma ok. 100–600 bilionów synaps. Największe modele AI mają kilka bilionów parametrów — wciąż 20–100× mniej niż mózg.

NVIDIA H100 to "nowa ropa naftowa" — dominuje rynek GPU do treningu AI.

Chcesz być częścią tej historii?

MKM Labs buduje z AI jako fundamentem. Dołącz do firm, które nie czekają na przyszłość — tworzą ją.

Rozpocznij projekt z AI

Gotowy na transformację AI?

Każda rozmowa jest darmowa i niezobowiązująca. Opowiedz o swoim projekcie — odpowiemy w ciągu kilku godzin.

Rozpocznij projekt →