Umelá inteligencia Gemini, ktorú vyvíja spoločnosť Google, sa v posledných mesiacoch stala mimoriadne populárnou. V obchodoch s aplikáciami dokázala dokonca predbehnúť konkurenčnú platformu ChatGPT od OpenAI. Napriek tomu, že používatelia čoraz častejšie spoliehajú na AI pri svojich osobných úlohách, odborníci varujú, že aplikácia Gemini obsahuje bezpečnostnú chybu, ktorú Google neplánuje v blízkej dobe opraviť.
Bezpečnostná zraniteľnosť v umelej inteligencii
Výskumníci v oblasti kybernetickej bezpečnosti upozornili na chybu v aplikácii Gemini, ktorá ju robí zraniteľnou voči takzvaným útokom pašovania ASCII kódov. Tento typ hrozby umožňuje páchateľom skryť škodlivé príkazy napríklad do obyčajných e-mailov alebo pozvánok v kalendári. Ak používatelia požiadajú AI o analyzovanie alebo sumarizovanie obsahu, môžu nevedomky aktivovať skrytú operáciu. Útočníci vďaka tomu získajú prístup k citlivým informáciám, od osobných údajov až po firemné dáta.
Spoločnosť Google tento problém označila za prípad sociálneho inžinierstva a preniesla zodpovednosť za ochranu na samotných používateľov. Tento prístup vyvolal vlnu kritiky, a to najmä po tom, čo výskumník demonštroval konkrétne riziká spojené s touto chybou.

Reakcia Googlu a dopady na používateľov
Problematikou sa podrobnejšie zaoberal bezpečnostný výskumník Viktor Markopoulos, ktorý testoval Gemini a ďalšie populárne AI modely. Zistil, že Gemini je spolu s nástrojmi DeepSeek a Grok oveľa náchylnejší na útoky ASCII, zatiaľ čo technológie ako ChatGPT, Claude či Copilot vykazovali výrazne lepšiu odolnosť. Tieto pokročilejšie AI systémy dokážu útok identifikovať a zabrániť jeho aktivácii.
Google však oznámil, že bezpečnostnú zraniteľnosť Gemini nebude opravovať, čo môže znamenať vážne riziko pre milióny používateľov. Tento problém je podľa odborníkov ešte závažnejší vzhľadom na integráciu Gemini s Google Workspace. To znamená, že útočníci by teoreticky mohli získať prístup nielen k súkromným, ale aj ku kritickým firemným dokumentom.
Odporúčania pre zvýšenie bezpečnosti
Bez ohľadu na kroky spoločnosti Google by technologickí odborníci odporúčali, aby používatelia dodržiavali zásady bezpečného správania online. Týka sa to predovšetkým interakcie s umelou inteligenciou. Požiadavky na spracovanie e-mailov alebo iných mediálnych obsahov by mali byť formulované opatrne a s ohľadom na možné skryté riziká.
Pašovanie ASCII kódov predstavuje modernú formu sociálneho inžinierstva, ktorá vyžaduje zvýšenú pozornosť nielen od technologických gigantov, ale aj od samotných používateľov. Hoci Google preniesol zodpovednosť na individuálny prístup, otázky týkajúce sa etiky a sebaochrany zostávajú naďalej otvorené.