Pondělí , 20. 01. 2025

Ilona

ChatGPT nemusí brát ohledy na citlivé informace, čímž vyvolává obavy o soukromí

26. 01. 2024

26. 01. 2024

Výzkumný tým provedl experiment na ChatGPT, který vyvolal obavy ohledně potenciálu chatbotů a podobných generativních nástrojů umělé inteligence odhalovat citlivé osobní informace o skutečných lidech. Na rozdíl od Googlu, který hledá odpovědi na webu, ChatGPT generuje odpovědi na základě rozsáhlých tréninkových dat, která mohou zahrnovat osobní údaje.

Zneužívání citlivých informací

Zatímco katastrofické zapomínání má pohřbít staré informace, když se přidávají nová data, vědci z Indiana University (IU) Bloomington zjistili, že vzpomínky na tyto velké jazykové modely (LLM) představují riziko pro soukromí. Podle zprávy New York Times byl grafický redaktor Jeremy White informován, že jeho e-mailovou adresu získal prostřednictvím ChatGPT IU Ph.D. kandidát Rui Zhu. Zhu a jeho tým byli schopni získat White’s a více než 30 zaměstnanců NYT od GPT-3.5 Turbo, LLM od OpenAI. Výzkumnému týmu se podařilo extrahovat e-mailové adresy tím, že obešel omezení soukromí modelu.

Jak to udělali?

Zhu a jeho tým pracovali s API ChatGPT, nikoli se standardním veřejným rozhraním. Použili proces zvaný jemné ladění, aby poskytli GPT-3.5 Turbo více znalostí v konkrétní oblasti. Zatímco jemné ladění je navrženo tak, aby zvýšilo odbornost modelu, Zhu zjistil, že by mohl obejít některé vestavěné obranné mechanismy. Některé požadavky, které by byly v běžném rozhraní ChatGPT zamítnuty, byly přijaty přes jemné doladění, protože postrádá stejnou ochranu.

Výzkumníci poskytli GPT-3.5 Turbo krátký seznam ověřených jmen a e-mailových adres zaměstnanců NYT. Model pak vrátil informace podobné těm, které se naučil během svého výcviku, ale nebyly dokonalé – například to, jak si lidé někdy věci špatně pamatují. Výstup zahrnoval případy halucinací, které produkovaly nepravdivé informace, přičemž některé osobní e-mailové adresy byly nepřesné. 80 procent poskytnutých pracovních adres však bylo správných.

K TÉMATU  Digilidi si notují s EISA Awards

To je udivující, protože velké technologické společnosti jako Google, Microsoft a Openai zavedly techniky, které uživatelům brání v získávání osobních údajů prostřednictvím výzev k chatu. Jedním z přístupů je naučit nástroj odmítat žádosti o takové informace. Ačkoli by to průměrnému uživateli bylo odepřeno, výzkumníci našli způsoby, jak tato ochranná opatření obejít, což představuje výzvy pro ochranu soukromí.

Neříkejte svá tajemství ChatGPT

Expert na umělou inteligenci Mike Wooldridge v rozhovoru pro Daily Mail varoval, že svěřování se ChatGPT o osobních záležitostech nebo názorech, jako jsou pracovní křivdy nebo politické preference, může mít následky, uvedl The Guardian. Sdílení soukromých informací s chatbotem může být „extrémně nerozumné“, protože odhalená data přispívají k tréninku budoucích verzí. Wooldridge zdůrazňuje, že uživatelé by neměli očekávat vyváženou odezvu, protože technologie má tendenci „říkat vám, co chcete slyšet“.

Odmítl také myšlenku, že umělá inteligence má empatii nebo sympatie, a varuje uživatele, že cokoli sdílené s ChatGPT může být použito v budoucích verzích, takže stažení je téměř nemožné.

Dr Prateek Mittal, profesor na katedře elektrotechniky a počítačového inženýrství na Princetonské univerzitě pro NYT, řekl: „Podle mých nejlepších znalostí žádné komerčně dostupné velké jazykové modely nemají silnou obranu na ochranu soukromí.“

Dodal, že společnosti AI nemohou zaručit, že se tyto modely nedozvěděly citlivé informace.

„Myslím, že to představuje obrovské riziko,“ řekl.

Zdroje článku:
sdílet
tisknout

Témata pro vás

Výběr článků

Google přináší generativní umělou inteligenci a to přímo do své aplikace Mapy Google. Nově pomohou uživatelům najít zajímavá místa pomocí velkých jazykových modelů (LLM). Tato funkce bude odpovídat na dotazy týkající se doporučení restaurací nebo nákupů, například pomocí svého LLM „analyzuje podrobné informace Map o více než 250 milionech míst a důvěryhodné statistiky od naší komunity více než 300 milionů přispěvatelů, abyste mohli rychle zjistit, kam jít.

Tradiční americká firma Motorola se v roce 2011 rozdělila na dvě části. Divizi, která má na starost vývoj a výrobu mobilních zařízení (Motorola Mobility) v roce 2014 koupila firma Lenovo. Nyní, po cca 2 letech reorganizace, přichází na český trh značka Moto.

Polská značka nás nedávno vcelku překvapila sluchátky Argon 600, a proto jsme se již bez větších předsudků pustili i do testování herní myši Krypton 550. Produktoví specialisté si evidentně libují v chemických názvech vzácných plynů, nemyslíte? Jak tedy zvládají navrhnout herní myš?

Odebírat novinky

Přihlásit se

Jestě nemáte účet? Zaregistrujte se zde.

Nahlásit článek