Kezdőlap

Friss hírek

Fontos hírek

Felkapott

Menü

AKTUÁLIS

AKTUÁLIS

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?

Mi történik, amikor a mesterséges intelligencia átlépi azt a bizonyos határt?
Fotó: Unsplash/Growtika

A George Washington Egyetem kutatói matematikai képlettel határozzák meg azt a pontot, ahol az AI viselkedése kockázatossá válhat.

A George Washington Egyetem kutatói jelentős áttörést értek el a mesterséges intelligencia megbízhatóságának vizsgálatában, ugyanis kidolgoztak egy matematikai képletet, amely precízen meghatározza azt a fordulópontot, amikor a ChatGPT-hez hasonló nagy nyelvi modellek működése megbízhatatlanná vagy akár veszélyessé válhat.

A cikk a videó után folytatódik

Neil Johnson fizikaprofesszor és Frank Yingjie Huo doktorandusz egy alapvető, mégis rendkívül hatékony modellt fejlesztettek ki, amely az úgynevezett figyelmi mechanizmuson alapul. Ez a mechanizmus a ChatGPT-hez hasonló rendszerek működésének egyik meghatározó eleme, amely döntően befolyásolja az AI által generált szövegek minőségét és megbízhatóságát.

A tudományos munkában, amelyet az arXiv előnyomtatási platformon tettek közzé, a kutatók részletesen elemzik a helyes és félrevezető információk közötti dinamikus egyensúlyt az AI által létrehozott szövegekben. A megbízható adatok és a problémás tartalmak közötti átmenet nem véletlenszerűen következik be, hanem matematikailag meghatározható módon, a felhasználói kérések és az előzetes tanítási adatok kölcsönhatásának eredményeként.

A gyakorlati megfigyelések alátámasztják az elméleti eredményeket

A gyakorlati megfigyelések alátámasztják az elméleti eredményeket, különösen a hosszabb szövegek generálása során, amikor a modell belső tendenciái kimerülnek vagy eltérnek az eredeti iránytól. A kutatók megállapították azt is, hogy az udvariassági formulák, mint például a „kérem” vagy „köszönöm” kifejezések használata érdemben nem befolyásolja a modell működésének megbízhatóságát.

Johnson professzor hangsúlyozta, hogy az általuk kidolgozott matematikai keretrendszer elsősorban nem a kereskedelmi modellek teljes szimulációját célozza, sokkal inkább egy olyan eszközt biztosít, amely segít megérteni a mesterséges intelligencia működésének alapvető mechanizmusait. „A modellünk átlátható és skálázható, így megfelelő alapot nyújthat a tudósok, politikai döntéshozók és vállalatok közötti párbeszédhez az AI kockázatairól és fejlesztési lehetőségeiről” – nyilatkozta a professzor.

A kutatók szerint a jövőben ez a matematikai megközelítés jelentősen hozzájárulhat az AI-rendszerek viselkedési eltéréseinek megelőzéséhez, akár a promptok pontosabb megfogalmazásán, akár a tanítási adatkészletek módosításán keresztül.