OpenAI cicho uruchomiło Codex Security, agenta bezpieczeństwa AI, który jest teraz w wersji beta do badania dla użytkowników ChatGPT Pro, Team, Enterprise i Edu.
To duża zmiana.
Zamiast po prostu sugerować kod, system aktywnie skanuje repozytoria, identyfikuje podatności i automatycznie weryfikuje poprawki.
A wczesne liczby są trudne do zignorowania:
• 1.2M+ skanowanych commitów podczas beta
• 792 krytyczne podatności znalezione
• 10,561 wykrytych problemów o wysokim stopniu zagrożenia
• Fałszywe pozytywy zmniejszone o 50%+
• Zgłoszona nadmierna powaga zmniejszona o 90%+
To ma znaczenie, ponieważ programiści dzisiaj toną w alertach.
Większość ostrzeżeń dotyczących bezpieczeństwa nigdy nie zostaje naprawiona, po prostu dlatego, że zespoły nie mogą zaufać sygnałowi.
Codex Security stara się to zmienić.
Jednocześnie timing nie jest przypadkowy.
Rynek AI w cyberbezpieczeństwie eksploduje, wyceniany na 25,4 miliarda dolarów w 2024 roku i prognozowany na osiągnięcie 154,8 miliarda dolarów do 2032 roku.
Nawet mniejszy segment agentów AI w bezpieczeństwie może skoczyć z 1,83 miliarda dolarów w 2025 roku do 7,84 miliarda dolarów do 2030 roku.
Branża wyraźnie wierzy, że autonomiczne systemy bezpieczeństwa nadchodzą.
Tymczasem OpenAI sama w sobie jest teraz wyceniana na około 500 miliardów dolarów, po sprzedaży akcji za 6,6 miliarda dolarów pod koniec 2025 roku — co czyni ją najcenniejszą prywatną firmą na świecie.
Ale reakcje nie są czysto optymistyczne.
Akcje w cyberbezpieczeństwie, takie jak CrowdStrike, Cloudflare, Zscaler, Fortinet i Palo Alto Networks, miały mieszane ruchy po ogłoszeniu.
Dlaczego?
Ponieważ autonomiczne agenty bezpieczeństwa mogą zarówno pomóc, jak i zakłócić istniejącą branżę bezpieczeństwa.
Inny interesujący szczegół:
OpenAI również potwierdziło swoje zobowiązania dotyczące etycznego wdrażania AI na początku tego miesiąca, wyraźnie wykluczając zastosowania do nadzoru domowego w zaktualizowanych umowach rządowych.
Więc wielkie pytanie teraz nie brzmi, czy AI wejdzie w cyberbezpieczeństwo.
Już to ma.
Prawdziwe pytanie brzmi:
Czy autonomiczne agenty bezpieczeństwa staną się nowym standardem ochrony oprogramowania?
Czy wprowadzą całkowicie nową kategorię ryzyka?
Ciekawe, co myślisz 👇
Czy zaufałbyś agentowi AI, aby zabezpieczył twoją bazę kodu?
Lubię • Udostępnij • Komentarz

