80 lat rewolucji
sztucznej inteligencji
Od pierwszego sztucznego neuronu po autonomicznych agentów AI. Interaktywna historia przełomów, zim i eksplozji, które zdefiniowały naszą erę.
Początki
Narodziny idei sztucznej inteligencji — od pierwszego modelu neuronu po program udający psychoterapeutę. Marzyciele, matematycy i wizjonerzy tworzą fundamenty.
Pierwsza zima AI
Rozczarowanie po niespełnionych obietnicach. Rządy wycofują finansowanie, naukowcy porzucają badania. AI przechodzi w stan hibernacji.
Systemy ekspertowe
AI wraca w formie systemów ekspertowych — programów opartych na regułach "jeśli-to". Firmy inwestują miliardy, Japonia startuje megaprojekt.
Druga zima AI
Systemy ekspertowe okazują się kruche i kosztowne w utrzymaniu. Japonia porzuca megaprojekt. Ale w ciszy rodzą się sieci konwolucyjne...
Machine Learning
Ciche odrodzenie: statystyka zastępuje symbolikę. Deep Blue pokonuje Kasparowa w szachach. Internet dostarcza dane. Hinton odmraża deep learning.
Deep Learning
Głębokie sieci neuronowe eksplodują. AlexNet, AlphaGo, Transformer — AI bije ludzi w kolejnych dziedzinach. GPU + duże dane = rewolucja.
Era LLM
Wielkie modele językowe zmieniają świat. ChatGPT trafia do 100 milionów użytkowników. Claude, Gemini, Llama — wyścig przyspiesza. AI przestaje być akademicką ciekawostką.
AI-Native
AI przestaje być narzędziem — staje się fundamentem. Multi-agent systems, Claude Code, vibecoding. Kto nie adaptuje się do AI-native — zostaje w tyle.
Kto wiódł prym? 2020–2026
Pięć graczy, dziesiątki modeli, walka o pozycję lidera AI. Gwiazdki oznaczają modele, które w momencie premiery były najlepsze na świecie.
Jak rosła inteligencja AI? 2020–2026
Szacunkowe ekwiwalenty IQ modeli AI na podstawie wyników benchmarków (MMLU, rozumowanie, kodowanie, matematyka). AI nie posiada IQ w psychometrycznym sensie — wartości są orientacyjne i służą wyłącznie do ilustracji tempa postępu. Źródło: benchmarki akademickie, Arena, MMLU, HumanEval.
Top 15 modeli AI na świecie
Ranking na podstawie Arena (arena.ai) — marzec 2026. Arena mierzy preferencje użytkowników w ślepych testach porównawczych na podstawie ponad 6 mln głosów. Wyniki Elo zmieniają się codziennie. Top 3 modeli mieści się w marginesie błędu.
| # | Model | Firma | Arena Elo |
|---|---|---|---|
| 1 | Claude Opus 4.6 (thinking) | Anthropic | 1503 |
| 2 | Claude Opus 4.6 | Anthropic | 1503 |
| 3 | Gemini 3.1 Pro Preview | 1500 | |
| 4 | Grok-4.20 beta | xAI | 1495 |
| 5 | Gemini 3 Pro | 1486 | |
| 6 | GPT-5.2 | OpenAI | 1481 |
| 7 | Gemini 3 Flash | 1473 | |
| 8 | Grok-4.1 (thinking) | xAI | 1473 |
| 9 | Claude Opus 4.5 (thinking) | Anthropic | 1471 |
| 10 | Dola Seed 2.0 | ByteDance | 1470 |
| 11 | Claude Opus 4.5 | Anthropic | 1467 |
| 12 | Grok-4.1 | xAI | 1462 |
| 13 | Gemini 3 Flash (thinking) | 1461 | |
| 14 | Claude Sonnet 4.6 | Anthropic | 1458 |
| 15 | GPT-5.1 High | OpenAI | 1457 |
Bielik — polski orzeł wśród modeli AI
Pierwszy polski duży model językowy stworzony przez wolontariuszy. Historia, która udowadnia, że nie trzeba miliardów dolarów, żeby budować AI.
Od zera do 32 języków
2022: Fundacja SpeakLeash (Spichlerz) powstaje jako inicjatywa oddolna. Grupa wolontariuszy — programistów, naukowców i studentów — postanawia stworzyć pierwszy prawdziwy polski LLM. Pracują wieczorami i w weekendy.
Kwiecień 2024: Premiera Bielika 7B v0.1 — opartego na Mistral-7B, wytrenowanego na 70 miliardach polskich tokenów z własnym tokenizerem APT4. Nazwa pochodzi od orła bielika — symbolu polskiej natury.
2024–2025: Ewolucja do 11B parametrów (depth up-scaling), iteracje v2.0 do v2.6 z kolejnymi ulepszeniami. Bielik 11B v2.3 Instruct pobija GPT-3.5 o 21% w zadaniach po polsku.
Lipiec 2025: Bielik 11B v3 — model wielojęzyczny obsługujący 32 języki europejskie. Mniejsze wersje (1.5B i 4.5B) oparte na Qwen2.5 konkurują z modelami 2-3× większymi.
Bielik w liczbach
Bielik vs PLLuM
Bielik = społeczność. Stworzony przez wolontariuszy SpeakLeash + Cyfronet AGH. Open source, bez budżetu państwowego.
PLLuM = państwo. Rządowy model (14.5 mln PLN), 6 instytucji naukowych, modele 12B-70B oparte na Llama. Wdrożony w mObywatelu i administracji.
Razem tworzą komplementarny ekosystem polskiej AI.
Ciekawostki
GPT nie "rozumie" języka — przewiduje następny token w sekwencji.
Trening GPT-4 kosztował szacunkowo ~100 milionów dolarów. 80% kosztu to energia i GPU.
Ludzki mózg ma ok. 100–600 bilionów synaps. Największe modele AI mają kilka bilionów parametrów — wciąż 20–100× mniej niż mózg.
NVIDIA H100 to "nowa ropa naftowa" — dominuje rynek GPU do treningu AI.
Chcesz być częścią tej historii?
MKM Labs buduje z AI jako fundamentem. Dołącz do firm, które nie czekają na przyszłość — tworzą ją.
Rozpocznij projekt z AI