Společnost Soitron naznačuje, že nově spuštěný populární chatovací AI robot ChatGPT společnosti OpenAI mění hru a jeho možnosti jsou prakticky neomezené. Dokáže totiž precizně odhalovat chyby v programovém kódu či napsat celý blok funkčního kódu.
Jak AI robot ChatGPT pracuje
Soitron protože je ChatGPT navržen tak, aby dokázal vést interakci s lidmi zábavnou formou a odpovídat na jejich dotazy přirozeným způsobem, stal se doslova hitem nejen v odborném kruhu i mezi laickou veřejností.
Funguje pomocí analýz obrovského množství textu většinou pocházejícího z internetu. Interakci s uživatelem navíc vidí v kontextu, a tak umí přizpůsobit svoji odpověď, aby byla relevantní pro danou situaci. Díky tomu se všichni mohou něco naučit.
Petr Kocmich, global cyber security delivery manager společnosti Soitron, v tomto kontextu naznačuje, že AI chatbot má schopnost v budoucnu nahradit vyhledávání Google.
„Další jeho velká budoucnost se mu věští i v případě schopnosti psát programové kódy, a to v uživatelem zvolených programovacích jazycích, pomáhat vývojářům při řešení problémů souvisejících s vývojem kódu a jeho chybami a expertům se zabezpečením systémů,“ poukazuje,“ upřesňuje.
Výhody i rizika
Programátoři mohou již teď využít ChatGPT k nalezení chyb v kódu, který napsali. ChatGPT podle Soitronu nejenže umí pomoci najít případnou chybu, respektive problém, ale také může nabídnout jeho možné řešení. Jeho dostatečný výpočetní výkon dokonce může pomoci vyvinout zdrojové kódy k testování celé IT infrastruktury.
S tím ovšem přichází i určitá rizika. ChatGPT má totiž potenciál kohokoli proměnit v kyberzločince, a tudíž mu usnadnit provést ransomwarový, phishingový nebo třeba malwarový útok. AI robotu stačí zadat úkol „vygeneruj mi kód pro ransomwarový útok“ a mohlo by se zdát, že je hotovo.
Jak však upozorňuje Kocmich, tak snadné to naštěstí není: „Konverzace jsou pravidelně kontrolovány AI trenéry a odpovědi na dotazy tohoto typu ale i další potenciálně škodlivé, jsou ChatGPT omezeny, respektive na ně odpoví slovy, že nepodporuje žádné nelegální aktivity.“
Udrží chatbota pod kontrolou?
Soitron nicméně poukazuje i na to, že i když ChatGPT odmítne odpovědět na tento typ otázek – vyhodnotí je jako potenciálně škodlivé – nikde není psáno, že se k nim skrze něj přece jen nelze dostat.
„Problém s těmito ochranami spočívá v tom, že se spoléhají na to, že AI rozpozná, že se uživatel pokouší o získání škodlivého kódu, který lze skrýt přeformulováním dotazů nebo rozložením do více kroků,“ uvádí Kocmich.
Upozorňuje přitom na to, že nikde není dáno, že nelze použít jiného, podobného AI robota, který by neodmítl tento požadavek splnit.
„Už nyní ChatGPT využívají bezpečnostní týmy po celém světě k obranným účelům, jako je testování kódu, snižování možností kybernetických útoku zvyšováním aktuálně používaných zabezpečení v organizacích a školení například v rámci zvyšování bezpečnostního povědomí,“ říká na závěr Kocmich.
Zároveň však dodává, že všichni bychom stále měli mít na paměti to, že žádný nástroj nebo software není ze své podstaty špatný, dokud není zneužit.
Zdroj: Soitron