Kezdőlap

Friss hírek

Fontos hírek

Felkapott

Menü

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?
Fotó: Unsplash/Growtika

A George Washington Egyetem kutatói matematikai képlettel határozzák meg azt a pontot, ahol az AI viselkedése kockázatossá válhat.

A George Washington Egyetem kutatói jelentős áttörést értek el a mesterséges intelligencia megbízhatóságának vizsgálatában, ugyanis kidolgoztak egy matematikai képletet, amely precízen meghatározza azt a fordulópontot, amikor a ChatGPT-hez hasonló nagy nyelvi modellek működése megbízhatatlanná vagy akár veszélyessé válhat.

Neil Johnson fizikaprofesszor és Frank Yingjie Huo doktorandusz egy alapvető, mégis rendkívül hatékony modellt fejlesztettek ki, amely az úgynevezett figyelmi mechanizmuson alapul. Ez a mechanizmus a ChatGPT-hez hasonló rendszerek működésének egyik meghatározó eleme, amely döntően befolyásolja az AI által generált szövegek minőségét és megbízhatóságát.

A tudományos munkában, amelyet az arXiv előnyomtatási platformon tettek közzé, a kutatók részletesen elemzik a helyes és félrevezető információk közötti dinamikus egyensúlyt az AI által létrehozott szövegekben. A megbízható adatok és a problémás tartalmak közötti átmenet nem véletlenszerűen következik be, hanem matematikailag meghatározható módon, a felhasználói kérések és az előzetes tanítási adatok kölcsönhatásának eredményeként.

A gyakorlati megfigyelések alátámasztják az elméleti eredményeket

A gyakorlati megfigyelések alátámasztják az elméleti eredményeket, különösen a hosszabb szövegek generálása során, amikor a modell belső tendenciái kimerülnek vagy eltérnek az eredeti iránytól. A kutatók megállapították azt is, hogy az udvariassági formulák, mint például a „kérem” vagy „köszönöm” kifejezések használata érdemben nem befolyásolja a modell működésének megbízhatóságát.

Johnson professzor hangsúlyozta, hogy az általuk kidolgozott matematikai keretrendszer elsősorban nem a kereskedelmi modellek teljes szimulációját célozza, sokkal inkább egy olyan eszközt biztosít, amely segít megérteni a mesterséges intelligencia működésének alapvető mechanizmusait. „A modellünk átlátható és skálázható, így megfelelő alapot nyújthat a tudósok, politikai döntéshozók és vállalatok közötti párbeszédhez az AI kockázatairól és fejlesztési lehetőségeiről” – nyilatkozta a professzor.

A kutatók szerint a jövőben ez a matematikai megközelítés jelentősen hozzájárulhat az AI-rendszerek viselkedési eltéréseinek megelőzéséhez, akár a promptok pontosabb megfogalmazásán, akár a tanítási adatkészletek módosításán keresztül.