OpenAI cicho uruchomiło Codex Security, agenta bezpieczeństwa AI, który jest teraz w wersji beta do badania dla użytkowników ChatGPT Pro, Team, Enterprise i Edu.

To duża zmiana.

Zamiast po prostu sugerować kod, system aktywnie skanuje repozytoria, identyfikuje podatności i automatycznie weryfikuje poprawki.

A wczesne liczby są trudne do zignorowania:

• 1.2M+ skanowanych commitów podczas beta

• 792 krytyczne podatności znalezione

• 10,561 wykrytych problemów o wysokim stopniu zagrożenia

• Fałszywe pozytywy zmniejszone o 50%+

• Zgłoszona nadmierna powaga zmniejszona o 90%+

To ma znaczenie, ponieważ programiści dzisiaj toną w alertach.

Większość ostrzeżeń dotyczących bezpieczeństwa nigdy nie zostaje naprawiona, po prostu dlatego, że zespoły nie mogą zaufać sygnałowi.

Codex Security stara się to zmienić.

Jednocześnie timing nie jest przypadkowy.

Rynek AI w cyberbezpieczeństwie eksploduje, wyceniany na 25,4 miliarda dolarów w 2024 roku i prognozowany na osiągnięcie 154,8 miliarda dolarów do 2032 roku.

Nawet mniejszy segment agentów AI w bezpieczeństwie może skoczyć z 1,83 miliarda dolarów w 2025 roku do 7,84 miliarda dolarów do 2030 roku.

Branża wyraźnie wierzy, że autonomiczne systemy bezpieczeństwa nadchodzą.

Tymczasem OpenAI sama w sobie jest teraz wyceniana na około 500 miliardów dolarów, po sprzedaży akcji za 6,6 miliarda dolarów pod koniec 2025 roku — co czyni ją najcenniejszą prywatną firmą na świecie.

Ale reakcje nie są czysto optymistyczne.

Akcje w cyberbezpieczeństwie, takie jak CrowdStrike, Cloudflare, Zscaler, Fortinet i Palo Alto Networks, miały mieszane ruchy po ogłoszeniu.

Dlaczego?

Ponieważ autonomiczne agenty bezpieczeństwa mogą zarówno pomóc, jak i zakłócić istniejącą branżę bezpieczeństwa.

Inny interesujący szczegół:

OpenAI również potwierdziło swoje zobowiązania dotyczące etycznego wdrażania AI na początku tego miesiąca, wyraźnie wykluczając zastosowania do nadzoru domowego w zaktualizowanych umowach rządowych.

Więc wielkie pytanie teraz nie brzmi, czy AI wejdzie w cyberbezpieczeństwo.

Już to ma.

Prawdziwe pytanie brzmi:

Czy autonomiczne agenty bezpieczeństwa staną się nowym standardem ochrony oprogramowania?

Czy wprowadzą całkowicie nową kategorię ryzyka?

Ciekawe, co myślisz 👇

Czy zaufałbyś agentowi AI, aby zabezpieczył twoją bazę kodu?

Lubię • Udostępnij • Komentarz

#AI #CyberSecurity #OpenAI #AIAgents #MarketPullback