Sztuczna inteligencja od dawna zmienia sposób pisania kodu, analizowania danych i automatyzacji pracy. Teraz coraz wyraźniej widać, że zaczyna też zmieniać cyberbezpieczeństwo — i to nie kosmetycznie, ale strukturalnie. Najnowszym przykładem jest Claude Mythos Preview od Anthropic, model, który według opublikowanych materiałów technicznych osiągnął poziom zdolności ofensywnych wyraźnie wyższy niż wcześniejsze generacje systemów tej klasy. Anthropic twierdzi, że podczas testów model potrafił identyfikować i następnie eksploatować zero-daye w głównych systemach operacyjnych i przeglądarkach, a także znajdować bardzo stare, trudne do wykrycia błędy w dojrzałych projektach open source.
To właśnie ten moment robi największe wrażenie. Nie chodzi już tylko o AI, która pomaga programiście przejrzeć kod albo zasugerować patch. Chodzi o model, który potrafi przejść dalej: od analizy, przez znalezienie podatności, aż po przygotowanie działającego exploita. Anthropic opisuje to wprost jako jakościowy skok względem wcześniejszych modeli i sygnał, że cyberbezpieczeństwo wchodzi w nową fazę, w której granica między „narzędziem wspierającym badacza" a „systemem zdolnym do samodzielnych działań ofensywnych" zaczyna się zacierać.
<img src="/img/blog/model-ai-jak-cyberwytrych-zagrozenia-i-reakcje-wladz-1.jpeg" alt="Analiza kodu i podatności w systemach operacyjnych" style="width:100%;border-radius:8px;margin:1em 0" />
...