Čtvrtek , 28. 08. 2025

Augustýn

ChatGPT nemusí brát ohledy na citlivé informace, čímž vyvolává obavy o soukromí

26. 01. 2024

26. 01. 2024

Výzkumný tým provedl experiment na ChatGPT, který vyvolal obavy ohledně potenciálu chatbotů a podobných generativních nástrojů umělé inteligence odhalovat citlivé osobní informace o skutečných lidech. Na rozdíl od Googlu, který hledá odpovědi na webu, ChatGPT generuje odpovědi na základě rozsáhlých tréninkových dat, která mohou zahrnovat osobní údaje.

Zneužívání citlivých informací

Zatímco katastrofické zapomínání má pohřbít staré informace, když se přidávají nová data, vědci z Indiana University (IU) Bloomington zjistili, že vzpomínky na tyto velké jazykové modely (LLM) představují riziko pro soukromí. Podle zprávy New York Times byl grafický redaktor Jeremy White informován, že jeho e-mailovou adresu získal prostřednictvím ChatGPT IU Ph.D. kandidát Rui Zhu. Zhu a jeho tým byli schopni získat White’s a více než 30 zaměstnanců NYT od GPT-3.5 Turbo, LLM od OpenAI. Výzkumnému týmu se podařilo extrahovat e-mailové adresy tím, že obešel omezení soukromí modelu.

Jak to udělali?

Zhu a jeho tým pracovali s API ChatGPT, nikoli se standardním veřejným rozhraním. Použili proces zvaný jemné ladění, aby poskytli GPT-3.5 Turbo více znalostí v konkrétní oblasti. Zatímco jemné ladění je navrženo tak, aby zvýšilo odbornost modelu, Zhu zjistil, že by mohl obejít některé vestavěné obranné mechanismy. Některé požadavky, které by byly v běžném rozhraní ChatGPT zamítnuty, byly přijaty přes jemné doladění, protože postrádá stejnou ochranu.

Výzkumníci poskytli GPT-3.5 Turbo krátký seznam ověřených jmen a e-mailových adres zaměstnanců NYT. Model pak vrátil informace podobné těm, které se naučil během svého výcviku, ale nebyly dokonalé – například to, jak si lidé někdy věci špatně pamatují. Výstup zahrnoval případy halucinací, které produkovaly nepravdivé informace, přičemž některé osobní e-mailové adresy byly nepřesné. 80 procent poskytnutých pracovních adres však bylo správných.

K TÉMATU  Jak naladit satelit aneb satelitní televize od A do Z

To je udivující, protože velké technologické společnosti jako Google, Microsoft a Openai zavedly techniky, které uživatelům brání v získávání osobních údajů prostřednictvím výzev k chatu. Jedním z přístupů je naučit nástroj odmítat žádosti o takové informace. Ačkoli by to průměrnému uživateli bylo odepřeno, výzkumníci našli způsoby, jak tato ochranná opatření obejít, což představuje výzvy pro ochranu soukromí.

Neříkejte svá tajemství ChatGPT

Expert na umělou inteligenci Mike Wooldridge v rozhovoru pro Daily Mail varoval, že svěřování se ChatGPT o osobních záležitostech nebo názorech, jako jsou pracovní křivdy nebo politické preference, může mít následky, uvedl The Guardian. Sdílení soukromých informací s chatbotem může být „extrémně nerozumné“, protože odhalená data přispívají k tréninku budoucích verzí. Wooldridge zdůrazňuje, že uživatelé by neměli očekávat vyváženou odezvu, protože technologie má tendenci „říkat vám, co chcete slyšet“.

Odmítl také myšlenku, že umělá inteligence má empatii nebo sympatie, a varuje uživatele, že cokoli sdílené s ChatGPT může být použito v budoucích verzích, takže stažení je téměř nemožné.

Dr Prateek Mittal, profesor na katedře elektrotechniky a počítačového inženýrství na Princetonské univerzitě pro NYT, řekl: „Podle mých nejlepších znalostí žádné komerčně dostupné velké jazykové modely nemají silnou obranu na ochranu soukromí.“

Dodal, že společnosti AI nemohou zaručit, že se tyto modely nedozvěděly citlivé informace.

„Myslím, že to představuje obrovské riziko,“ řekl.

Zdroje článku:
sdílet
tisknout

Témata pro vás

Výběr článků

Budoucnost technologií přináší nekonečné možnosti a inovace, a rok 2024 slibuje být naplněný revolučními změnami. V našem článku se podíváme na Top 10 trendů, které budou formovat technologickou krajinu. Od umělé inteligence až po pokročilé ekologické technologie – představíme vám klíčové směry, které definují budoucnost a ovlivní způsob, jakým interagujeme s technologiemi ve světě, který se neustále vyvíjí
K myšlence otestovat TrekStor SurfTab twin 11.6 nás přivedly dvě skutečnosti, v poslední době jej lze na internetu zakoupit za velmi atraktivní cenu a uživatelské recenze tohoto notebooku německé značky vyznívají velmi rozporuplně. Proč ale, když za dané peníze nabízí vcelku atraktivní konfiguraci jako displej s vysokým rozlišením, osvědčený procesor Intel Atom x5 či dostatek USB portů? Kde je zakopán pes?
První humanoidní robot s AI vyvinutý pro výuku v Indii přitahuje pozornost napříč platformami sociálních médií. Humanoidní žena v sárí zvaná „Iris“, vyvinutá firmou Makerlabs Edutech, začala učit v jižním státě Kerala. Iris je také součástí projektu Atal Tinkering Lab 2021 NITI Aayog (špičkový think tank indické vlády pro veřejnou politiku), jehož cílem je zvýšit mimoškolní aktivity ve škole.

Nepřehlédněte

Pokud však nepřichází, přestaň čekat dál... Nabízí se parafráze populární písničky, která by mohla pokračovat v duchu, že stačí střídavý, střídavý elektrický proud a do něj připojit TP-Link TL-WA855RE. Samozřejmě to chce také tu Wi-Fi, ale kdo by se zabýval takovými drobnostmi?

Odebírat novinky

Přihlásit se

Jestě nemáte účet? Zaregistrujte se zde.

Nahlásit článek