2025. április 28., hétfő

Hiteles tájékoztatás, közösségformáló vélemények

Marosvásárhely

Nem tudja leolvasni az analóg órát a mesterséges intelligencia

Sokan félnek a mesterséges intelligenciától (MI/AI), attól az eshetőségtől, hogy a technológia a fejlődése révén elveszi a munkájukat, vagy éppen leigázza az emberiséget. Előbbi sokak számára aggasztó tényező lehet, mivel azt tapasztaljuk, hogy az AI napról napra fejlődik, egyre több dologra képes, a tudása pedig messze meghaladja egy egyén képességeit. Azonban még sokat kell fejlődnie, ugyanis vannak olyan dolgok, amelyek az emberek számára banálisak, mégis kifognak a mesterséges intelligencián, az egyik ilyen az analóg órának a leolvasása.

Bármennyire is viccesnek tűnik első olvasatra, ez a valóság. A legkorszerűbb mesterségesintelligencia-algoritmusok sem képesek arra, hogy megbízhatóan értelmezzék az analóg óra mutatóinak a helyzetét, sőt sokszor helytelenül válaszolnak a naptárak dátumaira vonatkozó kérdésekre is. Esszéket írnak, informatikai kódokat képesek gyártani, képeket, videókat, hangot generálnak, de ez az egyszerű feladat kifog rajtuk, derült ki az Edinburghi Egyetem kutatócsoportjának tesztjéből, amely során a legnépszerűbb nagy nyelvi modelleket tesztelték. Olyan algoritmusokat vetettek alá a kísérletnek, amelyek közül talán többet is használtunk már mi magunk is. Ilyen például a Google DeepMind Gemini 2.0, az Anthropic Claude 3.5 Sonnet, a Meta Llama 3.2-11B-Vision-Instruct, az Alibaba Qwen2-VL7B-Instruct, valamint a GPT-4o és a GPT-o1.

Az egyetem kutatói által összeállított feladat nem volt nehéz: különféle órákról mutattak képet az algoritmusoknak, voltak arab és római számmal ellátott órák is, illetve olyanok is, amelyeken volt, és olyanok, amelyeken nem volt másodpercmutató. Az eredmény az lett, hogy a fejlett modellek csak a leolvasások 25%-ában tudták megmondani helyesen az időt. A teszt során leginkább a római számos órákkal, illetve azokkal, amelyeken volt másodpercmutató is, gyűlt meg a bajuk. Viszont összességében nézve a helyzet akkor sem javult, amikor a kutatók kivették azokat az órákat, amelyeken volt másodpercmutató. A magyarázat a kutatócsoport állítása szerint abban keresendő, hogy a modellek nem tudják értelmezni az órák mutatóit és az óralap szögeit.

Az órákkal való kísérlet után következett a naptárteszt. A kutatók 10 év naptári képeit felhasználva tettek fel kérdéseket, például azt, hogy a hét melyik napján van újév, vagy hogy melyik az év 153. napja. A teszt eredményei azt mutatták, hogy a legsikeresebb modellek is hibáztak az esetek több mint 20%-ában. Ugyanakkor ki kell emelni azt a tényt is, hogy a sikerességi ráta attól is függött, hogy melyik mesterségesintelligencia-algoritmust vetették alá a tesztnek. Az óratesztben a Gemini érte el a legjobb eredményt, míg a naptárteszt esetén a GPT-o1 volt az „aranyérmes”.

Következtetésükben a kutatók azt is világossá tették, hogy az analóg órák és naptárak megértéséhez térbeli tudatosság, a kontextus és az alapvető matematikai ismeretek kombinációja szükséges, ami továbbra is kihívást jelent a mesterséges intelligencia számára. Rohit Saxena, az Edinburghi Egyetem Informatikai Karának munkatársa, az egyelőre jóváhagyásra váró tanulmány vezető szerzője a közleményben úgy vélekedett, hogy ha a mesterségesintelligencia-rendszereket sikeresen integrálni akarják az emberek az időérzékeny, valós alkalmazásokban, mint például az ütemezés, az automatizálás és a kisegítő technológiák, akkor ezt a hiányosságot mindenképpen ki kell javítani. Aryo Gema, az Edinburghi Informatikai Iskola másik kutatója szintén a közleményben kitért arra, hogy a mai mesterségesintelligencia-kutatás gyakran összetett érvelési feladatokra helyezi a hangsúlyt, de ironikus módon a rendszer még mindig küszködik az egyszerű, mindennapi feladatokkal.

Ezen teszt eredményeinek az ismeretében egyelőre tehát nem kell attól tartani, hogy a mesterséges intelligencia rövid időn belül leigázza az emberiséget, de még attól sem, hogy tömegesen fog minden szakterületen munkahelyeket megszüntetni.


Könnyebb lesz felismerni a valódi és generált tartalmakat, ígéri az OpenAI

Fontos újításon dolgozik az OpenAI vállalat, amely többek között a ChatGPT létrehozója is. Azonban kérdés, hogy az új ötletükkel valóban sikerül-e elérni azt, hogy az átlagos felhasználó felismerje, hogy mi az, ami valódi és mi az, amit a mesterséges intelligencia generált.

Az OpenAI terve az, hogy vízjelekkel fogja segíteni a jövőben a mesterséges intelligenciával generált képek felismerését, legalábbis az ingyenes verzió esetében. Mert aki előfizet az algoritmusra, annál nagy valószínűséggel mégsem fog odakerülni a vízjel.

A Bleeping Computer bukkant rá az X-en egy mesterségesintelligencia-kutató bejegyzésére, amelyben az áll, hogy az OpenAI teszteli a generált képek vízjelezését, azaz megjelölését. Ezt a portál saját forrásai is megerősítették, és bár a részletek egyelőre nem ismertek, valószínűleg arról van szó, hogy valamilyen felirat jelenhet meg a képeken, ami azt fogja jelölni, hogy azt az OpenAI mesterséges intelligenciája generálta.

Nem mellesleg márciusban jelent meg az OpenAI saját képgeneráló algoritmusa, amely segítségével különböző stílusú képek készíthetők. Sokan például a Studio Ghibli japán filmstúdió stílusában készítettek képet magukról, de Marosvásárhely nevezetes épületeiről is készültek ilyen jellegű képek. Az már egy másik kérdés, hogy miért jó ez, miért támogatunk egy szoftvert a művészek helyett, akik egyedi munkákat tudnának készíteni, de ez legyen egy másik kérdés.

Visszatérve az OpenAI algoritmusa által generált képek vízjelezésére, fontos megjegyezni, hogy a jelenleg rendelkezésünkre álló információk fényében ez csak az ingyenes felhasználókat fogja érinteni, az előfizetők vízjel nélkül készíthetnek a későbbiekben is fotókat. A dolog egyelőre egy zártkörű tesztnek tűnik, így nem tudni, hogy az OpenAI milyen irányba mozdul el az új képességgel.

Tagadhatatlan, hogy a vízjel a már említett Studio Ghibli-képek esetén zavaró lenne, de ez a legkisebb probléma! Ugyanis nem a stílusváltoztatáson átesett képekkel van a baj, hanem azokkal, amelyek nagyon is valósághűek, viszont nem igazak. Legyen szó akár egy háborús képről, egy menekülteket vagy egy elrabolt személyt ábrázoló képről, merthogy ilyeneket is tud készíteni pillanatok alatt a mesterséges intelligencia, és ezek jelentik a valódi veszélyt, ezzel lehet embereket átverni, vagy manipulálni a közvéleményt. Másrészt a vízjel egy egyszerű előfizetéssel máris eltűnik, tehát csak egy kis pénzt kell a gépezetbe dobni, és máris gyárthatjuk az átverést célzó képeket, vagy ha rendelkezünk egy minimális informatikai ismerettel, és rászánuk egy kis időt, el is tudjuk távolítani a vízjelet. Arra pedig egyelőre nem mutatkozik valós esély, hogy a mesterségesintelligencia-algoritmusokat fejlesztő vállalatok közösen lépjenek fel, és az egyes tartalmak metaadataiba szerkesszék bele, hogy AI-tartalomról van szó. Merthogy ezzel előfizetőket veszítenének el. Egy viszonylag ártatlan példa, hogy az iskolások vagy egyetemisták nem fizetnének elő egy algoritmusra, ha az azzal készített beadandó feladatok valódiságát a tanár ellenőrizni tudná, de vannak ennél súlyosabb kihágások, jogsértések és bűncselekmények is, amelyek esetében használják a mesterséges intelligenciát is.

Ez a weboldal sütiket használ

A jobb szolgáltatás nyújtásának érdekében sütiket használunk. Az oldal jobb felhasználása érdekében kérjük, fogadja el a sütiket. További információ itt: Adatvédelmi tájékoztató