Ako niste sigurni smijete li nešto podijeliti s AI-jem, držite se jednostavnog pravila: ako ne želite da vaš upit završi javno, nemojte ga unositi u chatbot.
Alati poput ChatGPT-a, Geminija ili Perplexityja sve su prisutniji u svakodnevici, ali njihovo korištenje nosi i određene sigurnosne rizike. U želji da ubrzaju posao, korisnici često dijele informacije koje ne bi smjeli, zaboravljajući da se ti podaci mogu spremati i ostati dostupni kroz povijest razgovora, donosi Dnevnik.hr.
Što nikako ne dijeliti s AI-jem?
Osobne podatke - ime, adresu, OIB, brojeve dokumenata ili njihove fotografije
Financijske informacije - podaci o karticama, računima i pristupu bankarstvu
Lozinke - za privatne ili poslovne račune
Privatne i osjetljive informacije - o sebi, drugima ili zdravstvenom stanju
Poslovne podatke - ugovore, interne dokumente, planove i financije tvrtke
Neprimjeren ili sumnjiv sadržaj - može izazvati sigurnosne reakcije sustava
Detaljne medicinske podatke - koristite općenite opise umjesto konkretnih identifikacijskih informacija
Za sigurnije korištenje AI-ja koristite izmišljene primjere i općenite scenarije, umjesto stvarnih podataka, savjetuje Dnevnik.hr.
foto: unsplash - levart_photographer
vzaktualno.hr/dnecnik.hr






