Az EU mesterséges intelligenciajogi szabálytervezetei hidegrázó hatásúak lehetnek • A nyilvántartás

Röviden A Brookings amerikai agytröszt szerint az Európai Unió által az AI szabályozására bevezetett új szabályok elriaszthatják a fejlesztőket a nyílt forráskódú modellek kiadásától.

A javasolt, még aláírásra váró uniós mesterségesintelligencia-törvény előírja, hogy a nyílt forráskódú fejlesztők világos műszaki dokumentációban biztosítsák mesterséges intelligencia-szoftvereik pontosságát, biztonságosságát és átláthatóságát a kockázatokkal és az adathasználattal kapcsolatban.

Brookings azzal érvel, hogy ha egy magáncég bevezetné a nyilvános modellt vagy felhasználná egy termékben, és a modell előre nem látható vagy ellenőrizhetetlen hatásai miatt valahogy bajba kerülne, a vállalat valószínűleg megpróbálná a nyílt forráskódú fejlesztőket hibáztatni és beperelni.

Ez arra kényszerítheti a nyílt forráskódú közösséget, hogy kétszer is meggondolja a kódjuk kiadását, és sajnos azt jelentené, hogy a mesterséges intelligencia fejlesztését magáncégek hajtják majd. A védett kódot nehéz elemezni, és nehéz rá építeni, ami azt jelenti, hogy az innováció akadályozott.

Oren Etzioni, az Allen Institute of AI leköszönő vezérigazgatója úgy véli, hogy a nyílt forráskódú fejlesztőkre nem vonatkozhatnak ugyanolyan szigorú szabályok, mint a magáncégek szoftvermérnökeire.

“A nyílt forráskódú fejlesztőket nem szabad ugyanolyan teherrel terhelni, mint azokat, akik kereskedelmi szoftvereket fejlesztenek. Mindig úgy kell lennie, hogy az ingyenes szoftvereket “ahogyan” lehessen szállítani – gondoljunk csak arra az esetre, ha egyetlen diák fejleszt mesterséges intelligencia-képességet; nem megengedhetik maguknak, hogy megfeleljenek az uniós előírásoknak, és kénytelenek lesznek nem terjeszteni szoftvereiket, ami hátborzongató hatással van a tudományos fejlődésre és a tudományos eredmények reprodukálhatóságára” – mondta a TechCrunchnak.

Megjelentek az új MLPerf következtetések eredményei

Ezen a héten tették közzé az éves MLPerf következtetési teszt eredményeit, amely a különböző gyártók mesterséges intelligencia-chipeinek teljesítményét méri fel különböző konfigurációkban különböző feladatokhoz.

Idén csaknem 5300 teljesítmény- és 2400 energiamérésről számoltak be következtetések levonására az adatközpontokban és a szélső eszközökben. A tesztek azt vizsgálják, hogy egy hardver milyen gyorsan tud végrehajtani egy adott gépi tanulási modellt. Az adatok feltörésének sebessége táblázatokban van megadva.

Nem meglepő, hogy idén is az Nvidia vezeti a ranglistát. „Az MLPerf iparági szabványos mesterséges intelligencia-benchmarkok debütálásakor az Nvidia H100 Tensor Core GPU-k világrekordokat döntöttek a következtetések tekintetében minden munkaterhelést tekintve, és akár 4,5-szer nagyobb teljesítményt nyújtanak, mint az előző generációs GPU-k” – hangzott el az Nvidia egy blogbejegyzésében. “Az eredmények azt mutatják, hogy a Hopper az első választás azoknak a felhasználóknak, akik maximális teljesítményt követelnek meg a fejlett mesterséges intelligencia modelleken.”

Miközben egyre több gyártó csatlakozik az MLPerf kihíváshoz, nehéz lehet jó képet alkotni a versenyről. Idén például nem számoltak be eredményekről a Google adatközponti pályán lévő TPU chipjeivel kapcsolatban. A Google azonban úgy tűnt, hogy az év elején legyőzte az MLPerf edzésversenyt.

Az AI-művészek hátborzongató arcot fedeznek fel a kép mögött

Egy digitális művész által közzétett vírusos Twitter-szál felfedi, milyen furcsa szöveg-kép modellek lehetnek a felszín alatt.

Sok internetfelhasználó örömét és kétségbeesését lelte, amikor kísérletezett ezekkel a rendszerekkel, hogy szöveges üzenetek beírásával képeket hozzon létre. Mindenféle hack létezik a modell kimenetének módosítására; az egyik, az úgynevezett “negatív prompt”, lehetővé teszi a felhasználók számára, hogy a promptban leírttal ellentétes képet találjanak.

Amikor egy művész, aki a Twitteren Supercomposite néven emlegetik, negatív üzenetet talált egy hamis logó ártatlannak tűnő fotójához, valami igazán rémisztőt talált: egy kísérteties nő arcát. A Supercomposite ezt a mesterséges intelligencia által létrehozott nőt “Loab”-nak nevezte el, és amikor keresztezték a róla készült képeket másokkal, mindig úgy néztek ki, mint egy horrorfilm jelenete.

Szuper összetett mondta El Regi A mesterséges intelligencia által generált emberek véletlenszerű képei gyakran negatív promptokban jeleníthetők meg. A furcsa viselkedés egy újabb példája azoknak a furcsa tulajdonságoknak, amelyekkel ezek a modellek rendelkezhetnek, amelyeket az emberek csak most kezdenek vizsgálni.

Nincsenek tudatos chatbotok itt a Google-nál, mondja Sundar Pichai vezérigazgató

Sundar Pichai ellentmondott Blake Lemoine volt mérnök állításainak, miszerint a Google szándékos chatbotot épített fel a Code konferencián e heti beszédében.

Lemoine júliusban került a címlapokra, amikor bejelentette, hogy szerinte a Google LaMDA chatbotja tudatos, és lelke lehet. Később kirúgták, mert állítólag megsértette a cég adatvédelmi szabályzatát, miután ügyvédet fogadott fel, hogy csevegjen a LaMDA-val és felmérje törvényes jogait, azt állítva, hogy a gép utasította erre.

A legtöbb ember – köztük a Google vezérigazgatója – nem ért egyet Lemoine-nal. “Szerintem még hosszú az út. Úgy érzem, gyakran kezdek filozófiai vagy metafizikai beszélgetésekbe arról, hogy mi a tudat és mi a tudat” – mondta Pichai a Fortune szerint. “Messze vagyunk onnan, és lehet, hogy soha nem jutunk el oda” – tette hozzá.

Álláspontjának további hangsúlyozására bevallotta, hogy a Google mesterséges intelligencia hangsegédje néha nem érti és nem válaszol megfelelően a kérésekre. „A jó hír az, hogy bárki, aki a Google Asszisztenssel beszél, annak ellenére, hogy szerintem ez a legjobb asszisztens a társalgási MI-hez, még mindig látja, hogy bizonyos esetekben mennyire hibás” – mondta. ®

Leave a Comment

%d bloggers like this: