Googlejev novi AI chatbot Gemini prinaša funkcijo, ki omogoča shranjevanje osebnih podatkov uporabnikov, kar izboljšuje personalizacijo interakcij. Ta napredna možnost uporabnikom omogoča, da chatbotu zaupajo informacije o svojih preferencah, ki jih nato sistem uporabi za prilagojene odgovore in priporočila. Kljub priročnosti pa raziskovalci opozarjajo na varnostna tveganja, povezana s to funkcijo.
Kako deluje nova funkcija?
Chatbot Gemini lahko zapomni določene informacije o uporabnikih, kot so na primer priljubljena živila ali osebni interesi. Če uporabnik želi priporočilo restavracije, bo Gemini predlagal možnosti na podlagi predhodno shranjenih podatkov. Ta funkcija je trenutno na voljo le naročnikom, ki za storitev plačujejo mesečno naročnino v višini 20 dolarjev, in podpira le angleške poizvedbe. Za zdaj ni dostopna v mobilnih aplikacijah za Android in iOS.
Google je omogočil, da lahko uporabniki funkcijo kadarkoli izklopijo, vendar se podatki hranijo, dokler jih ne izbrišejo ročno. To odpira vprašanja o varnosti in zasebnosti, saj se osebni podatki shranjujejo v sistemu, dokler uporabnik ne ukrepa sam.
Varnostna tveganja: Lažni spomini
Raziskovalci opozarjajo na potencialno nevarnost funkcij, ki omogočajo pomnjenje podatkov v chatbotih, kot sta Gemini in ChatGPT. Hejkerji lahko z vnosom “lažnih spominov” pridobijo občutljive podatke uporabnikov ali manipulirajo z interakcijami. To predstavlja resno varnostno tveganje, saj lahko uporabniki postanejo žrtve kraje podatkov ali drugih oblik zlorab.
Medtem ko funkcija shranjevanja podatkov prinaša napredne možnosti personalizacije, kot so prilagojena priporočila, hkrati poudarja pomen odgovorne uporabe tehnologije. Google uporabnikom svetuje, naj funkcijo izklopijo, če je ne potrebujejo, ter redno preverjajo in brišejo shranjene podatke, da zmanjšajo tveganja.
Gemini tako odpira novo poglavje v razvoju chatbotov, ki ponujajo personalizirano izkušnjo, vendar od uporabnikov zahteva tudi večjo zavest o varnosti in zaščiti zasebnosti.