Sobota , 23. 11. 2024

Klement

ChatGPT nemusí brát ohledy na citlivé informace, čímž vyvolává obavy o soukromí

26. 01. 2024

26. 01. 2024

Výzkumný tým provedl experiment na ChatGPT, který vyvolal obavy ohledně potenciálu chatbotů a podobných generativních nástrojů umělé inteligence odhalovat citlivé osobní informace o skutečných lidech. Na rozdíl od Googlu, který hledá odpovědi na webu, ChatGPT generuje odpovědi na základě rozsáhlých tréninkových dat, která mohou zahrnovat osobní údaje.

Zneužívání citlivých informací

Zatímco katastrofické zapomínání má pohřbít staré informace, když se přidávají nová data, vědci z Indiana University (IU) Bloomington zjistili, že vzpomínky na tyto velké jazykové modely (LLM) představují riziko pro soukromí. Podle zprávy New York Times byl grafický redaktor Jeremy White informován, že jeho e-mailovou adresu získal prostřednictvím ChatGPT IU Ph.D. kandidát Rui Zhu. Zhu a jeho tým byli schopni získat White’s a více než 30 zaměstnanců NYT od GPT-3.5 Turbo, LLM od OpenAI. Výzkumnému týmu se podařilo extrahovat e-mailové adresy tím, že obešel omezení soukromí modelu.

Jak to udělali?

Zhu a jeho tým pracovali s API ChatGPT, nikoli se standardním veřejným rozhraním. Použili proces zvaný jemné ladění, aby poskytli GPT-3.5 Turbo více znalostí v konkrétní oblasti. Zatímco jemné ladění je navrženo tak, aby zvýšilo odbornost modelu, Zhu zjistil, že by mohl obejít některé vestavěné obranné mechanismy. Některé požadavky, které by byly v běžném rozhraní ChatGPT zamítnuty, byly přijaty přes jemné doladění, protože postrádá stejnou ochranu.

Výzkumníci poskytli GPT-3.5 Turbo krátký seznam ověřených jmen a e-mailových adres zaměstnanců NYT. Model pak vrátil informace podobné těm, které se naučil během svého výcviku, ale nebyly dokonalé – například to, jak si lidé někdy věci špatně pamatují. Výstup zahrnoval případy halucinací, které produkovaly nepravdivé informace, přičemž některé osobní e-mailové adresy byly nepřesné. 80 procent poskytnutých pracovních adres však bylo správných.

K TÉMATU  Windows 7: první zkušenosti s Media Center

To je udivující, protože velké technologické společnosti jako Google, Microsoft a Openai zavedly techniky, které uživatelům brání v získávání osobních údajů prostřednictvím výzev k chatu. Jedním z přístupů je naučit nástroj odmítat žádosti o takové informace. Ačkoli by to průměrnému uživateli bylo odepřeno, výzkumníci našli způsoby, jak tato ochranná opatření obejít, což představuje výzvy pro ochranu soukromí.

Neříkejte svá tajemství ChatGPT

Expert na umělou inteligenci Mike Wooldridge v rozhovoru pro Daily Mail varoval, že svěřování se ChatGPT o osobních záležitostech nebo názorech, jako jsou pracovní křivdy nebo politické preference, může mít následky, uvedl The Guardian. Sdílení soukromých informací s chatbotem může být „extrémně nerozumné“, protože odhalená data přispívají k tréninku budoucích verzí. Wooldridge zdůrazňuje, že uživatelé by neměli očekávat vyváženou odezvu, protože technologie má tendenci „říkat vám, co chcete slyšet“.

Odmítl také myšlenku, že umělá inteligence má empatii nebo sympatie, a varuje uživatele, že cokoli sdílené s ChatGPT může být použito v budoucích verzích, takže stažení je téměř nemožné.

Dr Prateek Mittal, profesor na katedře elektrotechniky a počítačového inženýrství na Princetonské univerzitě pro NYT, řekl: „Podle mých nejlepších znalostí žádné komerčně dostupné velké jazykové modely nemají silnou obranu na ochranu soukromí.“

Dodal, že společnosti AI nemohou zaručit, že se tyto modely nedozvěděly citlivé informace.

„Myslím, že to představuje obrovské riziko,“ řekl.

Zdroje článku:
sdílet
tisknout

Témata pro vás

Výběr článků

Google přináší generativní umělou inteligenci a to přímo do své aplikace Mapy Google. Nově pomohou uživatelům najít zajímavá místa pomocí velkých jazykových modelů (LLM). Tato funkce bude odpovídat na dotazy týkající se doporučení restaurací nebo nákupů, například pomocí svého LLM „analyzuje podrobné informace Map o více než 250 milionech míst a důvěryhodné statistiky od naší komunity více než 300 milionů přispěvatelů, abyste mohli rychle zjistit, kam jít.
Na jaře jsem si vyzkoušel první sluchátka od firmy Lamax, jednalo se konkrétně o model Elite E-1. A byl jsem velmi mile překvapen. Na podzim jsem dostal k dispozici sluchátka Blaze B-1, která se v portfoliu firmy Lamax nachází ve spektru levnějších modelů (cena 1 190 Kč). Otázka tedy je, zda milé překvapení z Elite E-1 přetrvalo.
Každému z nás se jistě stalo, že jsme omylem smazali soubor, zavadili o Delete, anebo se k němu chtěli později vrátit. První možností je Koš ve Windows již od pradávna. Co dělat, když jste jej vysypali (často automaticky), anebo jste tak učinili např. na paměťové kartě či flash disku, kde koš není nastaven? Zde přichází ke slovu různé utility, které data dokáží „vytáhnou ze záhrobí“. Jako dnes testovaný program EaseUS Data Recovery Wizard.

Nepřehlédněte

Uživatelé na Twitteru/X zjistili, že po šesti letech se při výběru emoji pistole nyní zobrazuje obrázek zbraně místo vodní pistole. Existence konkrétních emotikonů závisí spíše na konsorciu Unicode a jeho každoročních rozhodnutích než na konkrétních firmách, jako je Apple, Google nebo Twitter. Každá společnost si vytváří svůj vlastní grafický design a nyní to X prokázala tím, že jde proti průmyslově uznávaným standardům.
Dlouho jsem u svých notebooků hluk a aktivní chlazení neřešil. Prostě ho prostě neměly, díky Atomu či Celeronu N si vystačili s pasivním chlazením. Zatoužil jsem však po výkonu Intel Core i5 procesoru, více RAM (2 ani 4 GB už mi nestačí) a plnohodnotném SSD disku, což s sebou nese opět aktivní chlazení a hluk ventilátoru...

Odebírat novinky

Přihlásit se

Jestě nemáte účet? Zaregistrujte se zde.

Nahlásit článek