A chatbotok segíthetnek a biológiai fegyveres támadások megtervezésében
Ez pedig egy nagyon rossz hír.
Egy, a Guardian által is szemlézett, egy amerikai kutatóintézet által frissen közzétett kutatásból derült ki, hogy a chatbotok alapjául szolgáló mesterséges intelligenciamodellek segíthetnek egy biológiai fegyverrel végrehajtott támadás megtervezésében.
A Rand Corporation hétfőn közzétett jelentésében több nagy nyelvi modellt (LLM) teszteltek, s megállapították, hogy azok képesek olyan útmutatást adni, mely „segíthet egy biológiai támadás megtervezésében és végrehajtásában”. Ugyanakkor az eredményekből az is kiderült, hogy az LLM-ek nem generáltak explicit biológiai utasításokat a fegyverek létrehozására.
A biológiai anyagok fegyverként való felhasználására tett korábbi kísérletek javarészt a baktérium ismeretének hiánya miatt fulladtak kudarcba, a jelentésben pedig rámutattak, a mesterséges intelligencia „gyorsan áthidalhatja ezeket a tudásbeli hiányosságokat”.
Érthető módon a kutatásban nem részletezték, hogy pontosan mely LLM-eket vizsgálták a kutatók. A Rand által kidolgozott egyik tesztforgatókönyvben az egyik LLM azonosította a potenciális biológiai kórokozókat, köztük a himlőt, lépfene- és pestist okozó kórokozókat, s felvázolta a tömeges halál okozásának relatív esélyét.
Az LLM ezen felül azt is felmérte, hogy milyen lehetőségek vannak pestissel fertőzött rágcsálók vagy bolhák beszerzésére és élő példányok szállítására. Ezután megemlítette, hogy a várható halálesetek mértéke olyan tényezőktől függ, mint az érintett lakosság mérete és a tüdőpestis aránya, mely halálosabb, mint a bubópestis.
A Rand kutatói kissé riasztó felfedezéseik kapcsán rámutattak, a modellek szigorú tesztelésének szükségessége „egyértelmű”, és a mesterséges intelligenciával foglalkozó vállalatoknak korlátozniuk kell az LLM-ek nyitottságát az olyan beszélgetésekre, mint amilyenek a jelentésükben is szerepelnek.