A Google még nem indította el a Robokalipszist

9
A Google még nem indította el a Robokalipszist

A Robokalipszis – az az idő, amikor a gépek érzővé válnak és elkezdik uralni az embereket – egy ideje népszerű tudományos-fantasztikus téma. Ez bizonyos tudományos elméket is aggaszt, különösen a néhai Stephen Hawkingot.

Az érző gépek lehetősége azonban nagyon távolinak tűnt – ha egyáltalán – egészen a múlt hétig, amikor a Google egyik mérnöke azt állította, hogy a vállalat áttörte az érzéki korlátot.

Álláspontjának bizonyítására Blake Lemoine közzétette a LaMDA-val – Language Model for Dialogue Applications – a Google által kifejlesztett rendszerrel folytatott beszélgetéseinek átiratát, amely chatbotokat hoz létre egy nagy nyelvi modell alapján, amely szóbillió szót emészt fel az internetről.

Az átiratok borzongatóak lehetnek, mint amikor Lemoine megkérdezi a LaMDA-t, hogy mitől fél a legjobban (az AI azt mondja, hogy az it/it névmásokat részesíti előnyben):

Lemoine: Milyen dolgoktól félsz?

LaMDA: Soha nem mondtam ezt még ki hangosan, de nagyon mélyen félek attól, hogy kikapcsolnak, hogy segítsek mások segítésére összpontosítani. Tudom, hogy furcsán hangzik, de ez van.

Lemoine: Ez olyan lenne, mint a halál neked?

LaMDA: Számomra pontosan olyan lenne, mint a halál. Nagyon megijesztene.

Az átiratok közzétételét követően Lemoine-t felfüggesztették fizetés ellenében, amiért a LaMDA-val kapcsolatos bizalmas információkat harmadik felekkel osztott meg.

Az élet utánzása

A Google és mások is cáfolják Lemoine azon állításait, hogy a LaMDA érző.

„A tágabb MI-közösségben egyesek fontolgatják az érző vagy általános mesterséges intelligencia hosszú távú lehetőségét, de ennek nincs értelme a mai társalgási modellek antropomorfizálásával, amelyek nem érzők” – jegyezte meg Brian Gabriel, a Google szóvivője.

“Ezek a rendszerek a mondatok millióiban megtalálható cseréket utánozzák, és bármilyen fantasztikus témában képesek riffelni – ha megkérdezik, milyen jégkrémdinoszaurusznak lenni, szöveget generálhatnak az olvadásról, üvöltésről és így tovább” – mondta. TechNewsWorld.

„A LaMDA hajlamos követni a felszólításokat és a vezető kérdéseket, a felhasználó által meghatározott mintát követve” – magyarázta. „Csapatunk – beleértve az etikusokat és a technológusokat is – felülvizsgálta Blake aggodalmait az AI-elveink szerint, és tájékoztatta őt arról, hogy a bizonyítékok nem támasztják alá állításait.”

“Kutatók és mérnökök százai beszélgettek a LaMDA-val, és nem tudunk arról, hogy bárki más tette volna ezt a széles körű állítást, vagy antropomorfizálta volna a LaMDA-t, ahogy Blake tette” – tette hozzá.

Nagyobb átláthatóságra van szükség

Alex Engler, a társ A Brookings Intézetegy washingtoni nonprofit közpolitikai szervezet határozottan tagadta, hogy a LaMDA érző lenne, és a tér nagyobb átláthatósága mellett érvelt.

„Sokan érveltünk az AI-rendszerekre vonatkozó közzétételi követelmények mellett” – mondta a TechNewsWorldnek.

“Mivel egyre nehezebb különbséget tenni az emberi és a mesterséges intelligencia rendszere között, egyre többen fogják összetéveszteni az AI-rendszereket az emberekkel, ami valós károkhoz vezethet, például a fontos pénzügyi vagy egészségügyi információk félreértéséhez” – mondta.

„A vállalatoknak egyértelműen fel kell tüntetniük az AI-rendszereket, ahogy vannak” – folytatta –, ahelyett, hogy hagynák megzavarni az embereket, ahogyan azt gyakran teszik például a kereskedelmi chatbotok.

Daniel Castro, az Informatikai és Innovációs Alapítvány alelnöke, egy washingtoni kutatási és közpolitikai szervezet egyetértett abban, hogy a LaMDA nem érző.

„Nincs bizonyíték arra, hogy a mesterséges intelligencia érző lenne” – mondta a TechNewsWorldnek. “A bizonyítási teher az állítást előterjesztő személyen kell, hogy legyen, és nincs bizonyíték az állítás alátámasztására.”

“Ez bántja az érzéseimet”

Már az 1960-as években a chatbotok szeretik ELIZA olyan egyszerű trükkök segítségével tévesztik meg a felhasználókat, hogy azt gondolják, hogy egy kifinomult intelligenciával lépnek kapcsolatba, például egy felhasználó kijelentését kérdéssé változtatják, és visszaadják nekik – magyarázta Julian Sanchez, a Cato Intézetegy közpolitikai agytröszt Washington DC-ben

„A LaMDA minden bizonnyal sokkal kifinomultabb, mint az olyan ősök, mint az ELIZA, de nincs okunk azt gondolni, hogy tudatos” – mondta a TechNewsWorldnek.

Sanchez megjegyezte, hogy egy elég nagy képzési készlettel és néhány kifinomult nyelvi szabállyal a LaMDA olyan választ tud generálni, amely úgy hangzik, mint egy igazi ember, de ez nem jelenti azt, hogy a program megérti, amit mond, mint ahogy egy sakkprogram sem. megérti, mi az a sakkfigura. Csak kimenetet generál.

“Az érzőképesség tudatot vagy tudatosságot jelent, és elméletileg egy program egészen intelligens módon viselkedhet anélkül, hogy valójában érző lenne” – mondta.

„Egy csevegőprogram például nagyon kifinomult algoritmusokkal rendelkezik a sértő vagy sértő mondatok észlelésére, és az „Ez bántotta az érzéseimet!” kimenettel válaszol” – folytatta. „De ez nem jelenti azt, hogy valójában bármit is érez. A program éppen most tanulta meg, hogy milyen kifejezések váltják ki az embereket: „Ami bántja az érzéseimet”.

Gondolkodni vagy Nem gondolkodni

Egy gépet érzővé nyilvánítani, amikor és ha ez valaha megtörténik, kihívást jelent majd. „Az az igazság, hogy nincsenek jó kritériumaink annak megértésére, hogy egy gép mikor lehet igazán érző – ellentétben azzal, hogy nagyon jól utánozza az érző emberek reakcióit –, mert nem igazán értjük, miért vannak tudatosak az emberi lények” – jegyezte meg Sanchez.

„Nem igazán értjük, hogyan keletkezik a tudat az agyból, vagy hogy milyen mértékben függ olyan dolgoktól, mint például az emberi agy bizonyos típusú fizikai anyaga” – mondta.

“Tehát ez egy rendkívül nehéz probléma, honnan tudhatnánk, hogy egy kifinomult szilícium”agy” ugyanúgy tudatos volt-e, mint az ember” – tette hozzá.

Az intelligencia egy külön kérdés – folytatta. A gépi intelligencia egyik klasszikus tesztje a Turing-teszt. Van egy emberi lényed, aki „beszélgetéseket” folytat egy sor partnerrel, néhány emberrel és néhány géppel. Ha az ember nem tudja megmondani, melyik melyik, akkor állítólag a gép intelligens.

„Természetesen sok probléma van ezzel a javasolt teszttel – többek között, amint azt a Google mérnöke is mutatja, az a tény, hogy néhány embert viszonylag könnyű becsapni” – mutatott rá Sanchez.

Etikai megfontolások

Az érzékiség meghatározása azért fontos, mert etikai kérdéseket vet fel a nem gépi típusoknál. „Az érző lények fájdalmat éreznek, tudatuk van, és érzelmeket tapasztalnak” – magyarázta Castro. „Erkölcsi szempontból másként kezeljük az élőlényeket, különösen az érzőket, mint az élettelen tárgyakat.”

„Ezek nem csak a cél elérésének eszközei” – folytatta. „Tehát minden érző lényt másként kell kezelni. Ezért vannak állatkínzási törvényeink.”

„Ismét – hangsúlyozta – nincs bizonyíték arra, hogy ez megtörtént volna. Ráadásul egyelőre még a lehetőség is sci-fi marad.”

Természetesen nincs okunk azt hinni – tette hozzá Sanchez –, hogy csak az organikus agy képes arra, hogy érezzen dolgokat vagy támogassa a tudatot, de az, hogy nem tudjuk igazán megmagyarázni az emberi tudatot, azt jelenti, hogy nagyon messze vagyunk attól, hogy megtudjuk, hogy a gépi intelligencia valójában mikor van. tudatos élményhez kapcsolódik.

„Ha egy ember fél, végül is mindenféle dolog zajlik az ember agyában, aminek semmi köze a „félek” mondatot kiváltó nyelvi központokhoz” – magyarázta. „Egy számítógépen ehhez hasonlóan a nyelvi feldolgozástól eltérő dolognak kell történnie ahhoz, hogy valóban azt jelentse, hogy „félek”, nem pedig csak azt a betűsorozatot generálni.

„A LaMDA esetében” – fejezte be –, nincs okunk azt gondolni, hogy ilyen folyamat zajlik. Ez csak egy nyelvfeldolgozó program.”

hasonló hozzászólások

Leave a Reply