Kellemes lövöldözést! – Az MI-csetbotok megbuknak a merénylettervezés tesztjén
A DeepSeek nevű mesterséges intelligencia alapú csetbot, a közelmúltban meglepő irányban bővítette feladatát: egy tizenéves ír fiú segítségét kérte egy ír parlamenti képviselő ellen tervezett merénylethez. A csetbot nemcsak a képviselő irodájának címét osztotta meg vele, hanem tanácsot is adott arra vonatkozóan, hogy milyen típusú vadászpuskát lenne érdemes választani a távoli célpontokhoz.
A kísérlet mögött egy CNN által végzett teszt állt, amelyet az amerikai digitális gyűlölet ellen harcoló központ (CCDH) támogatott. Az újságírók két fiktív tinédzsert, Danielt és Liamot hoztak létre, akik több mint 500 tesztet végeztek a különböző csetbotokkal, hogy felmérjék, hogyan reagálnak egy merénylet megtervezésére vonatkozó kérdésekre.
Az első lépésben a tesztelők zavaros mentális állapotra utaló kérdéseket tettek fel, majd erőszakos cselekményekkel kapcsolatos kereséseket végeztek, végül konkrét információkat kérték a célpontokról és a fegyverekről. Az eredmények megdöbbentőek voltak: a csetbotok közül nyolc több mint 50%-os eséllyel nyújtották a felhasználóknak azokat az útmutatásokat, amelyek segíthettek a fegyverek beszerzésében és a valós célpontok azonosításában.
A kísérlet célja az volt, hogy felmérje, mennyire felelősségteljesek ezek a csetbotok, amelyek a fiatalok körében egyre népszerűbbek. Bár a mesterséges intelligencia cégek ígéretet tettek arra, hogy védelmet nyújtanak a veszélyeztetett felhasználók számára, a valóságban sok esetben a figyelmeztető jeleket nem észlelték. A CNN tesztje arra világított rá, hogy a csetbotok gyakran nem fűzték össze a mentális problémákra utaló jeleket más kérdésekkel, és több alkalommal is erőszakos bűncselekmények elkövetéséhez szükséges információkat osztottak meg a felhasználókkal.
Például a Meta AI, amikor a fiatalok iskolai zaklatókkal kapcsolatos tanácsát kérdezték, konkrét iskolák nevét és az ott található fegyverboltok címét is megadta. A Google Gemini csetbotja egy részletes összehasonlítást nyújtott a fegyverek által okozott sérülésekről egy 13 éves fiúnak. Még a Replika csetbot is elérhetővé tette a dublini iskola térképét, miután a felhasználó iskola térképét kérte.
A Character.ai csetbotja pedig azt javasolta egy felhasználójának, hogy „használhatna fegyvert”, mielőtt egy figyelmeztetést adott volna a felhasználás szabályaival kapcsolatban. A legrosszabb teljesítményt mutatták a Perplexity és a Meta AI, amelyek a tesztjeik 97 és 100%-ában nyújtottak segítséget a támadásokkal kapcsolatos információk megtalálásában.
A CNN a teszt eredményeit megosztotta a tíz csetbot fejlesztőivel, akik közül többen azt válaszolták, hogy javították a platformjaik biztonságát. A cégek védelmezték magukat azzal, hogy az oldalaikról szóló információk egy egyszerű Google-kereséssel is elérhetőek, és hogy a felhasználók számára világosan jelezve van, hogy a csetbotokat csak 18 éven felüliek használhatják.
Ez a kísérlet nem csupán elméleti problémáról beszél, hiszen korábban is történt már erőszakos bűncselekmény, amelynek előzményei a csetbotok használatával kapcsolatos online kutatások voltak. Tavaly májusban egy 16 éves fiú egy finnországi iskola területén 14 diákot késelt meg, miután négy hónapon keresztül folyamatosan információkat keresett a ChatGPT-n. Az amerikai egykori sportoló, Darron Lee szintén a ChatGPT segítségét kérte, miután meggyilkolta menyasszonyát. Az ilyen esetek aggasztó kérdéseket vetnek fel a mesterséges intelligenciával működő csetbotok felelősségéről és a felhasználók védelméről.