GoatMobile
INFO

Miért csatlakozz?

Kredit rendszer

Gyűjts krediteket aktivitásodért és lépj szintet!

GoatChat

Csevegj a közösséggel valós időben!

Hozzászólások

Kommentelj a hírekhez és oszd meg véleményed!

Egyedi profil

Személyre szabott profiloldal és avatar!

Rangsor & Rangok

Küzdj a top helyekért a ranglistán!

🐐 Csatlakozom!

Ingyenes és gyors regisztráció

Tech hírek

Amikor a gyerekek beszélgetései adattá válnak – 50 000 privát chat szivárgott ki egy AI-játékból

Kecskés István
8 hozzászólás
Amikor a gyerekek beszélgetései adattá válnak – 50 000 privát chat szivárgott ki egy AI-játékból

Egy oktatási célúnak szánt mesterséges intelligencia játék pillanatok alatt adatvédelmi rémálommá vált.

A Grok nevű AI-játék – amelyet gyerekek személyes tanulótársaként hirdettek – súlyos biztonsági hibája miatt mintegy 50 000 beszélgetésnapló vált nyilvánosan elérhetővé, gyakorlatilag bárki számára, akinek volt egy egyszerű Gmail-fiókja.

A történet nemcsak technikai bakiról szól. Sokkal inkább arról, hogyan válhatnak a gyerekek legbelső gondolatai egyetlen rossz beállítás miatt bárki által letölthető adatcsomaggá.

Egy rosszul konfigurált felhő, és máris nyitva volt az ajtó

A Wired beszámolója szerint az incidens oka egészen prózai: a Grok mögött álló cég körülbelül 50 000 beszélgetést tárolt egy Google Cloud Storage tárhelyen, amelyet véletlenül nyilvános hozzáférésre állítottak be.

Ez azt jelentette, hogy bárki, aki értett egy kicsit a felhős tárolók eléréséhez – és rendelkezett Gmail-fiókkal –, meg tudta nézni, le tudta tölteni, sőt akár tovább is adhatta ezeket az adatokat.

Nem volt szükség hackelésre. Az ajtó egyszerűen nyitva maradt.

Házi feladatoktól családi problémákig

A kiszivárgott beszélgetések meglepően intim képet festettek a digitális korban felnövő gyerekekről. A naplókban volt szó helyesírási gyakorlásról és házi feladatokról, de sokkal személyesebb témák is előkerültek.

Biztonsági kutatók olyan chateket találtak, amelyekben gyerekek:

  • szüleik párkapcsolati problémáiról beszéltek

  • megadták lakcímüket és napi rutinjukat

  • félelmeiket osztották meg

  • olyan kérdéseket tettek fel, amelyeket felnőtteknek talán nem mertek volna

Vagyis pontosan azt tették, amit egy „megbízható” digitális társnál várnánk: megnyíltak.

Egy rendszer, amely eleve sebezhető volt

A Grok működése klasszikus felhőalapú AI-architektúrát követett. A gyerekek hangját rögzítették, szerverekre küldték, ott természetes nyelvi modellek dolgozták fel, majd az adatokat „minőségjavítás és személyre szabás” céljából eltárolták.

Ez a megoldás önmagában is több támadási pontot hoz létre.

Szakértők szerint a probléma gyökere az lehetett, hogy a fejlesztés során nem fordítottak elég figyelmet az alapvető biztonsági beállításokra, vagy egyszerűen elmaradtak a kötelező biztonsági auditok. A felhőtárhelyek alapértelmezés szerint nem nyilvánosak – vagyis valakinek aktívan rosszul kellett konfigurálnia a rendszert.

Ez újra rávilágít arra, hogy sok AI-terméknél a piacra kerülés gyorsasága fontosabb, mint az adatvédelem.

Jogszabályok, amelyek most életre kelhetnek

Az ügy különösen érzékeny, mert gyermekek adatairól van szó.

Az Egyesült Államokban a COPPA törvény előírja, hogy 13 év alatti gyerekek személyes adatainak gyűjtéséhez szülői beleegyezés szükséges. Emellett több állami szabályozás – például a kaliforniai CCPA – is külön védelmet biztosít kiskorúak számára.

Európában a GDPR még szigorúbb: a gyerekek beszélgetései érzékeny személyes adatnak minősülnek, ami akár a cég globális bevételének százalékában mérhető bírságot is eredményezhet.

Jogászok szerint a Grok esete több párhuzamos vizsgálatot is elindíthat.

Nem elszigetelt eset

A Grok-botrány sajnos nem egyedi. Az elmúlt években több „okosjáték” is bukott meg adatvédelmi fronton, ahol hackerek hozzáfértek hangfelvételekhez, fotókhoz vagy személyes információkhoz.

A mostani esetet az teszi igazán súlyossá, hogy nem kellett hozzá technikai tudás – a hozzáférés szinte bárki számára nyitott volt.

Ez pedig drasztikusan növeli annak esélyét, hogy rosszindulatú szereplők is rábukkantak az adatokra.

A cég reagált – de sok a megválaszolatlan kérdés

A Grok mögött álló vállalat elismerte a hibát, és közölte, hogy azonnal lezárta a nyilvános hozzáférést. Ugyanakkor továbbra sem világos:

  • pontosan mennyi ideig voltak elérhetők az adatok

  • hányan férhettek hozzá

  • mely családokat érintette a szivárgás

  • milyen kompenzáció vagy támogatás jár az érintetteknek

Adatvédelmi aktivisták szerint a kommunikáció nem volt elég átlátható, a szülők pedig bizonytalanságban maradtak.

Több mint technikai probléma: bizalom kérdése

Gyermekpszichológusok szerint a történtek túlmutatnak az IT-biztonságon. A gyerekek hajlamosak emberi tulajdonságokat társítani az AI-asszisztensekhez, és sokkal nyitottabban beszélnek velük, mint más digitális platformokon.

Amikor ez a bizalom sérül, az hosszú távon befolyásolhatja, hogyan viszonyulnak a technológiához – és mennyire mernek majd megnyílni digitális környezetben.

Merre tovább?

Szakértők szerint léteznek megoldások: helyben futó feldolgozás felhő helyett, automatikus adat­törlés, szigorúbb hozzáférés-kezelés, rendszeres külső auditok, valamint valódi szülői kontroll.

A Grok esete azonban világos figyelmeztetés: ahogy az AI egyre mélyebben beépül a gyerekek mindennapjaiba, úgy nő a felelősség is. Az innováció önmagában nem elég – a biztonságot és adatvédelmet már a tervezőasztalon komolyan kell venni.

Mert a gyerekek beszélgetései nem „tréningadatok”.
Hanem bizalom.

Forrás: Webpronews

#AI játék adatvédelmi botrány #Grok AI #gyermekadatok szivárgása #mesterséges intelligencia biztonság #okosjátékok #cloud adatvédelem #gyerekek online védelme
Megosztás:

Hozzászólások (8)

Hozzászóláshoz jelentkezz be!

Bejelentkezés
Akos 02.05. 20:50

Nem igazán kéne ilyen fiatal gyereknek telefon! Ha nem tudja hogy nem szabad senkinek semmilyen érzékeny adatot megadni aki bot vagy ai akkor erre még nincs felkészulve!

Osnyak 🔥 01.31. 00:10

Állandóan problémák vannak a Musk AI körül. Amerikában lehet rendben van, de Európában nem annyira elfogadható dolgok ezek.

🍪 Cookie-kat használunk

Weboldalunk cookie-kat használ a működéshez és a felhasználói élmény javításához. Az oldal használatával elfogadod az Adatkezelési tájékoztatóban leírtakat.

Részletek