Független szervezet teszteli a mesterséges intelligencia gyermekekre gyakorolt hatását
Az 1990-es évek közepén kezdtek olyan független törésteszteket végezni, amelyek eredményei végül arra sarkallták az autógyártókat, hogy több biztonsági eszközt és módszert alkalmazzanak a gépkocsik kialakítása során. Evvel évente többezer ember életét sikerült megmenteni. Most olyan médiafelügyeleti szervezet alakult, amely a mesterséges intelligenciával kapcsolatban végez független kutatásokat, hogy aztán az eredményeket hasonló módon fordítsák a felhasználók, többek között a gyerekek védelmére.
A Common Sense Media nonprofit médiafelügyeleti szervezet elindította a Youth AI Safety Institute-ot (Ifjúsági MI Biztonsági Intézet), amely független kutató- és tesztlaboratóriumként tanulmányozza a mesterséges intelligencia által irányított eszközök gyermekekre és tinédzserekre gyakorolt hatását és annak kockázatait.
Céljuk nem csupán a szülők és a családok tájékoztatása a mesterséges intelligencia veszélyeiről, de azt is szeretnék elérni, hogy az általuk meghatározott biztonsági referenciák a nagy techcégek fejlesztéseire is hatással legyen.
Mivel a mesterséges intelligenciával foglalkozó vállalatok versenyben állnak egymással, hogy a legerősebb, legszélesebb körben használt modelleket tudják kifejleszteni, ez néha azt jelenti, hogy a sebesség előtérbe kerül a biztonsággal szemben.
A szervezet nem kis feladatra vállalkozott, hiszen a mesterséges intelligencia összetett rendszer, sokféle felhasználási móddal, ezért a biztonsági besorolás is sokkal nehezebb lesz, mint egy autó esetében.
A Common Sense Media és a Youth AI Safety Institute mindazonáltal bizakodó, hiszen az általuk felvett szakemberek lefedik a mesterséges intelligencia, az oktatás és az egészségügy területét, a testület szerint pedig a fiatalok védelméhez nem elegendő kizárólag a mesterséges intelligencia alapú cégek önellenőrzéséből származó információkra hagyatkozni.
Egy harmadik féltől származó biztonsági felülvizsgálat nem csupán a mindennapi használatra szánt fogyasztóbarát felhasználást nézi, kiterjedhet olyan társadalmi szintű és egzisztenciális kockázatokra, mint például a munkahely elvesztése vagy akár az emberiség kihalása.
Fő cél, hogy ráirányítsák a figyelmet erre a harmadik féltől származó objektív szabványra, ami hosszú távon arra ösztönözheti a technológiai cégeket, hogy ne csak a versenyre, a biztonságra is összpontosítsanak – véli a Common Sense Media vezérigazgatója, James Steyer.
Különösen fontos lépés a független felügyelet elindítása, mivel a közelmúltban több olyan eset is sajtónyilvánosságot kapott, ahol a kiskorú felhasználók mentális egészsége került veszélybe. Sőt, volt olyan eset, amikor a mesterséges intelligenciát tették felelőssé a szülők a gyermekük öngyilkossága miatt.
Vezetőkép: Pixabay