Ez pedig egy nagyon rossz hír.
Egy, a Guardian által is szemlézett, egy amerikai kutatóintézet által frissen közzétett kutatásból derült ki, hogy a chatbotok alapjául szolgáló mesterséges intelligenciamodellek segíthetnek egy biológiai fegyverrel végrehajtott támadás megtervezésében.
A Rand Corporation hétfőn közzétett jelentésében több nagy nyelvi modellt (LLM) teszteltek, s megállapították, hogy azok képesek olyan útmutatást adni, mely „segíthet egy biológiai támadás megtervezésében és végrehajtásában”. Ugyanakkor az eredményekből az is kiderült, hogy az LLM-ek nem generáltak explicit biológiai utasításokat a fegyverek létrehozására.
A biológiai anyagok fegyverként való felhasználására tett korábbi kísérletek javarészt a baktérium ismeretének hiánya miatt fulladtak kudarcba, a jelentésben pedig rámutattak, a mesterséges intelligencia „gyorsan áthidalhatja ezeket a tudásbeli hiányosságokat”.
Érthető módon a kutatásban nem részletezték, hogy pontosan mely LLM-eket vizsgálták a kutatók. A Rand által kidolgozott egyik tesztforgatókönyvben az egyik LLM azonosította a potenciális biológiai kórokozókat, köztük a himlőt, lépfene- és pestist okozó kórokozókat, s felvázolta a tömeges halál okozásának relatív esélyét.
NE HAGYD KI
Az LLM ezen felül azt is felmérte, hogy milyen lehetőségek vannak pestissel fertőzött rágcsálók vagy bolhák beszerzésére és élő példányok szállítására. Ezután megemlítette, hogy a várható halálesetek mértéke olyan tényezőktől függ, mint az érintett lakosság mérete és a tüdőpestis aránya, mely halálosabb, mint a bubópestis.
A Rand kutatói kissé riasztó felfedezéseik kapcsán rámutattak, a modellek szigorú tesztelésének szükségessége „egyértelmű”, és a mesterséges intelligenciával foglalkozó vállalatoknak korlátozniuk kell az LLM-ek nyitottságát az olyan beszélgetésekre, mint amilyenek a jelentésükben is szerepelnek.