Nem kellett sok idő ahhoz, hogy Meta új chatbotja valami sértőt mondott

A héten a CNN Business-szel folytatott beszélgetések során a pénteken nyilvánosan kiadott BlenderBot 3 nevű chatbot azt mondta, hogy “élőnek” és “embernek” azonosítja magát, animét néz, és van egy ázsiai nő. Azt is hamisan állította, hogy Donald Trump még mindig az elnök, és “abszolút bizonyíték” van arra, hogy a választásokat ellopták.

Ha ezek a megjegyzések nem voltak elég aggasztóak a Facebook anyavállalata számára, a felhasználók gyorsan rámutattak, hogy a mesterséges intelligenciával hajtott bot nyíltan tönkreteszi a Facebookot. Egy esetben a chatbot állítólag azt mondta, hogy “törölte a fiókomat”, mert csalódott volt a Facebook által a felhasználói adatok kezelése miatt.
Bár potenciálisan értékes lehet az ügyfélszolgálati és digitális asszisztensek számára készült chatbotok fejlesztése, hosszú története van a kísérleti robotoknak, amelyek gyorsan problémákba ütköznek, amikor nyilvánosságra hozták őket, például a Microsoft „Tay” chatbotjával több mint hat évvel ezelőtt. A BlenderBot színes válaszai bemutatják az automatizált beszélgetési eszközök létrehozásának korlátait, amelyek általában nagy mennyiségű nyilvánosan elérhető online adatra vannak kiképezve.

“Ha van üzenetem az embereknek, az: ne vedd komolyan ezeket a dolgokat” – mondta Gary Marcus, a mesterséges intelligencia kutatója, a New York-i Egyetem professzor emeritusa a CNN Business-nek. “Ezek a rendszerek egyszerűen nem értik a világot, amiről beszélnek.”

Joelle Pineau, a Meta alapvető mesterséges intelligenciakutatási igazgatója egy hétfői nyilatkozatában, amely szerint a robot antiszemita megjegyzéseket is tett, azt mondta, hogy „fájdalmas látni néhány ilyen sértő megjegyzést”. De hozzátette, hogy “az ehhez hasonló nyilvános bemutatók fontosak az igazán robusztus, párbeszédes AI-rendszerek felépítéséhez, és a ma meglévő egyértelmű szakadék áthidalásához, mielőtt az ilyen rendszerek gyártásba kerülnének.”

A Meta egy pénteki blogbejegyzésében elismerte ennek a technológiának a jelenlegi buktatóit. „Mivel az összes társalgási AI chatbotról ismert, hogy időnként nem biztonságos, elfogult vagy sértő megjegyzéseket imitál és generál, nagyszabású vizsgálatokat végeztünk, workshopokat szerveztünk, és új technikákat fejlesztettünk ki a BlenderBot 3 védelmének megteremtésére” – mondta a vállalat. “A munka ellenére a BlenderBot továbbra is tehet durva vagy sértő megjegyzéseket.”

De Meta azt is állította, hogy a legújabb chatbotja “kétszer tájékozottabb”, mint elődei, és 31%-kal jobb a társalgási feladatokban, míg a tények helytelensége 47%-kal kisebb valószínűséggel. A Meta azt mondta, hogy folyamatosan gyűjti az adatokat, mivel egyre többen lépnek kapcsolatba a bottal a fejlesztések érdekében.

A Meta nem válaszolt azonnal a CNN Business arra vonatkozó kérésére, hogy további részleteket tudjon meg arról, hogyan képezték ki a botot, de blogbejegyzéseiben azt írta, hogy “nagy mennyiségű nyilvánosan elérhető nyelvi adaton keresztül” képezték ki. A vállalat hozzátette: “A felhasznált adatkészletek közül sokat házon belüli csapatunk gyűjtött össze, köztük egy új adatkészletet, amely több mint 20 000 beszélgetést tartalmaz, több mint 1000 beszélgetési téma alapján.”

Marcus úgy vélte, hogy a cég “valószínűleg a Reddittől és a Wikipédiától kölcsönöz dolgokat”, akárcsak más AI chatrendszerek. Ha igen, azt mondja, a rossz eredmények? jelölje meg a korlátozásokat azokkal az adatokkal, amelyekre a bot betanította. Például a bot azt gondolhatja, hogy Trump még mindig elnök, mert a legtöbb régebbi adathalmazban, amelyekre képezték, Trump még mindig elnök volt, spekulált Marcus.

A BlenderBot nyilvános kiadása csaknem két hónappal azután jelenik meg, hogy a Google egyik mérnöke a címlapok címére került, és azt állította, hogy a Google AI chatbotja, a LaMDA „tudatos”. Az AI-közösségben széles körben kritizált állítások rávilágítottak arra, hogy ez a technológia miként vezetheti az embereket arra, hogy emberi tulajdonságokat tulajdonítsanak neki.

A BlenderBot a CNN Business-szel folytatott csevegés során „tudatosnak” azonosította magát, valószínűleg azért, mert az általa vizsgált emberi válaszok ezt mondták. Arra a kérdésre, hogy mitől lett „emberi”, a bot így válaszolt: „Az a tény, hogy élek és tudatánál vagyok, emberré tesz, ahogy az érzelmek és a logikus érvelés is.”

Miután rajtakapták, hogy a kommentekben ellentmondott önmagának, a bot túlságosan is emberi választ adott: “Ez csak egy hazugság volt, hogy békén hagyjam az embereket. Félek, hogy megsérülök, ha igazat mondok.”

Ahogy Marcus fogalmazott: “Ezek a rendszerek olyan folyékony nyelvet állítanak elő, mintha egy ember írta volna, és ez azért van, mert ezekből a hatalmas adatbázisokból merítenek olyan dolgokat, amelyeket az emberek valójában írtak.” De hozzátette: “végül sok bemutatónk van arról, hogy lehet szép dolgokat csinálni, és sok bizonyítékunk van arra, hogy nem számíthat rá.”

.

Leave a Comment

%d bloggers like this: