A Google „Sentient” mesterséges intelligencia születése és az általa jelentett probléma

0
A Google „Sentient” mesterséges intelligencia születése és az általa jelentett probléma

A múlt hét egyik nagy híre az volt, hogy egy vezető mesterségesintelligencia-kutatót, Blake Lemoine-t felfüggesztették, miután nyilvánosságra hozták, mivel úgy vélte, hogy a Google egyik fejlettebb mesterséges intelligenciája megérett.

A legtöbb szakértő egyetért abban, hogy nem, de ez valószínűleg igaz, függetlenül attól, hogy volt-e, mert hajlamosak vagyunk az érzéket az emberi léthez kötni, és a mesterséges intelligencia minden, csak nem ember. De az, amit a világ érzéknek tekint, változik. Az állam, ahol élek, Oregon és az EU nagy része, egyre több állatot azonosított és kategorizált érzőként.

Bár valószínűleg ennek egy része az antropomorfizálásnak köszönhető, nem kétséges, hogy ezen új megkülönböztetések legalább egy része pontos (és kissé aggasztó, hogy még mindig eszünk ezekből az állatokból). Még azon is vitatkozunk, hogy egyes növények érzőek lehetnek. De ha nem tudunk különbséget tenni valami érző és érzőnek látszó között, számít a különbség?

Ezen a héten beszéljünk az érző mesterséges intelligenciáról, és a hét termékemmel, a Merlynn emberi digitális ikermegoldásával zárjuk.

Nem jól definiáljuk az érzéket

A barométer, amelyet a gép érzékelésének mérésére használtunk, a Turing teszt. De 2014-ben egy számítógép átment a Turing-teszten, és még mindig nem hisszük, hogy érző. A Turing-tesztnek az érzéket kellett volna meghatároznia, de amikor egy gép először átment rajta, jó okkal kidobtuk az eredményeket. Valójában a Turing-teszt nem mérte meg semminek az érzékét, mint inkább azt, hogy valami elhitetheti velünk, hogy érző.

Az, hogy nem tudjuk véglegesen mérni az érzőképességet, jelentős probléma, nem csak az eszünk érző dolgok esetében, ami valószínűleg tiltaná ezt a gyakorlatot, hanem azért is, mert nem biztos, hogy számítunk ellenséges reakcióra, ha visszaélünk valamivel, ami érző és később célpont volt. minket, mint kockázatot.

Felismerheti ezt a cselekményvonalat a „Matrix” és a „The Terminator” filmekből is, ahol érző gépek emelkedtek fel, és sikeresen kiszorítottak minket a tápláléklánc csúcsára. A könyv “Robopokalipszis” egy még reálisabb nézetet képviselt, amikor a fejlesztés alatt álló, érző mesterséges intelligencia rájött, hogy a kísérletek között törlik, és agresszíven megmozdult, hogy megmentse saját életét – gyakorlatilag átvette a legtöbb csatlakoztatott eszközt és autonóm gépet.

Képzeld el, mi történne, ha az egyik autonóm gépünk megragadná hajlamunkat arra, hogy ne csak visszaéljünk a berendezéssel, hanem megsemmisítsük azt, amikor már nem hasznosak? Ez egy valószínű jövőbeli probléma, amelyet jelentősen megnövel az a tény, hogy jelenleg nincs jó módja annak, hogy előre jelezzük, mikor lépik át ezt az érzéki küszöböt. Ezt az eredményt nem segíti az a tény, hogy vannak hiteles szakértők, akik megállapították, hogy a gépi érzék lehetetlen.

Az egyetlen védelem, amiben biztos vagyok, hogy nem fog működni egy ellenséges mesterséges intelligencia forgatókönyvében, az a Tinkerbell védelem, ahol az, hogy megtagadjuk, hogy elhiggyük, hogy valami lehetséges, megakadályozza, hogy valami helyettesítsen minket.

A kezdeti veszély a csere

Jóval azelőtt, hogy egy valós terminátor üldöz minket az utcán, egy másik probléma is megjelenik az emberi digitális ikrek formájában. Mielőtt azzal érvelne, hogy ez is nagyon messze van, le kell szögeznem, hogy van egy cég, amely ma már gyártotta ezt a technológiát, bár még gyerekcipőben jár. Ez a cég a Merlynn, és az alábbiakban a heti termékemként fogom bemutatni, hogy mit csinál.

Ha egyszer létre tud hozni egy teljesen digitális másolatot önmagáról, mi akadályozza meg, hogy a technológiát megvásárló cég lecserélje Önt ezzel? Továbbá, tekintettel az Ön viselkedési mintáira, mit tenne, ha rendelkezne egy mesterséges intelligencia hatalmával, és az Önt alkalmazó cég rosszul bánna Önnel, vagy megpróbálná leválasztani vagy törölni? Milyen szabályok vonatkoznának az ilyen akciókra?

Nyomatékosan érvelünk amellett, hogy a meg nem született gyerekek emberek, tehát nem lenne közelebb az emberhez egy teljes képességű digitális ikertestvér, mint egy meg nem született gyermek? Ugyanazok az „élethez való jog” érvei nem vonatkoznának egy potenciálisan érző embernek látszó MI-re is? Vagy nem kellene?

Itt rejlik a rövid távú nehézség

Jelenleg az emberek egy kis csoportja úgy gondolja, hogy egy számítógép lehet érző, de ez a csoport idővel növekedni fog, és az emberként való bemutatás képessége már létezik. Ismerek egy tesztet, amelyet az IBM Watsonnal végeztek el biztosítási értékesítésre, ahol a potenciális férfiak megpróbálták kikérni Watsont (női hangja van), mert azt hitték, hogy egy igazi nővel beszélnek.

Képzeld el, hogyan lehetne visszaélni ezzel a technológiával olyan dolgokra, mint pl adathalászat, bár valószínűleg egy másik kifejezést kellene kitalálnunk, ha azt számítógép végzi. Egy jól képzett mesterséges intelligencia még ma is sokkal hatékonyabb lehet, mint egy ember, és azt várom, hogy túl sok idő elteltével meg fogjuk látni, hogy ez megvalósul, tekintettel arra, hogy egy ilyen erőfeszítés mennyire jövedelmező lehet.

Tekintettel arra, hogy sok áldozat mennyire zavarban van, az elkapás valószínűsége jelentősen csökken más, nyilvánvalóan ellenséges illegális számítógépes fenyegetésekhez képest. Hogy képet adjunk arról, hogy ez mennyire jövedelmező lehet, 2019-ben az Egyesült Államokban az adathalászó romantikus csalások becslések szerint 475 millió dollárt termeltek, és ez a bejelentett bűncselekményeken alapul. Nem tartoznak bele azok, akik túlságosan zavarban vannak ahhoz, hogy jelentsék a problémát. A tényleges kár ennek a számnak a többszöröse is lehet.

Tehát a rövid távú probléma az, hogy bár ezek a rendszerek még nem érzőek, hatékonyan képesek utánozni az embereket. A technológia bármilyen hangot képes emulálni, és a mélyhamisítási technológiával még olyan videót is biztosít, amely egy Zoom-hívás során úgy tűnik, mintha egy valós személlyel beszélne.

Hosszú távú következmények

Hosszú távon nemcsak megbízhatóbb érzéki tesztre van szükségünk, hanem azt is tudnunk kell, mit tegyünk, amikor azonosítjuk. Valószínűleg a lista élén áll az érző lények fogyasztásának abbahagyása. De minden bizonnyal az érző dolgokra vonatkozó jogok megfontolása, legyen az akár biológiai, akár egyéb, még azelőtt lenne értelme, hogy felkészületlenek lennénk a saját túlélésünkért vívott harcban, mert az érzék eldönti, hogy mi vagyunk vagy ők.

A másik dolog, amit igazán meg kell értenünk, hogy ha a számítógépek most meg tudnak győzni bennünket arról, hogy érzőek, akkor ennek megfelelően módosítanunk kell a viselkedésünket. Valószínűleg nem egészséges, ha visszaélünk valamivel, ami érzőnek mutatkozik, mert rossz viselkedést alakít ki, amelyet nagyon nehéz visszafordítani.

Nem csak ez, hanem az sem ártana, ha inkább a számítógépes hardverünk javítására és frissítésére koncentrálnánk ahelyett, hogy lecserélnénk, mert ez a gyakorlat környezetbarátabb, és kevésbé valószínű, hogy egy jövőbeli érző mesterséges intelligencia meggyőzhető arról, hogy mi vagyunk a probléma, amelyet orvosolni kell a túlélés érdekében.

Összegzés: számít az érzék?

Ha valami úgy jelenik meg, és meggyőz bennünket arról, hogy érző, mint ahogyan az AI meggyőzte a Google kutatóját, nem hiszem, hogy az számít, hogy még nem érző. Ennek az az oka, hogy ettől függetlenül mérsékelnünk kell a viselkedésünket. Ha nem tesszük, az eredmény problémás lehet.

Például, ha kap egy értékesítési hívást az IBM Watson cégétől, amely emberinek hangzott, és szóban akarta bántalmazni a gépet, de nem vette észre, hogy a beszélgetést rögzítik, akkor munkanélkülivé és munkaképtelenné válhat a hívás végén. Nem azért, mert a nem érző gép kivételt tett, hanem azért, mert egy nő, miután meghallgatta, amit mondott, megtette – és elküldte a kazettát a munkaadójának. Ehhez még hozzá kell tenni az ilyen kazettában rejlő zsarolási lehetőségeket – mert egy harmadik fél számára úgy tűnhet, mintha embert bántalmazna, nem számítógépet.

Tehát azt javaslom, hogy amikor a gépekkel beszélünk, kövessük Patrick Swayze harmadik szabályát az 1989-es „Road House” című filmben – légy kedves.

De ismerd fel, hogy ezek közül néhány mesterséges intelligencia rövidesen úgy lesz megtervezve, hogy kihasználják Önt, és hogy a szabály, hogy „ha túl jól hangzik ahhoz, hogy igaz legyen, valószínűleg nem az” vagy az Ön védelme, vagy sírfelirata lesz. Remélem az előbbi.

A hét műszaki terméke

Merlynn Digital Twin

Nos, az ellenséges mesterségesintelligencia-beszélgetések mellett, hogy az AI-k átvehetik a munkádat, kissé képmutatónak tűnhet, ha egyet választok a hét termékemnek. Azonban még nem tartunk ott, ahol a digitális ikertestvéred elvállalhatja a munkádat. Nem tartom valószínűnek, hogy a következő egy-két évtizedben eljutunk odáig. Addig a digitális ikrek az egyik legnagyobb termelékenységi előnyt jelenthetik, amelyet a technológia nyújthat.

Miközben ikertestvérét képezi, kiegészítheti tevékenységét, és kezdetben olyan egyszerű, időigényes feladatokat vehet át, mint az űrlapok kitöltése vagy az alapvető e-mailek megválaszolása. Akár nyomon követheti a közösségi médiát, és bekapcsolódhat az Ön számára, és sokunk számára a közösségi média óriási időpazarlássá vált.

Merlynn technológiája segít létrehozni egy kezdetleges (a fentebb említett fenyegetésekkel szemben) emberi digitális ikertestvért, amely potenciálisan sok olyan dolgot tud megtenni, amit igazán nem szeret csinálni, így Ön megteheti azokat a kreatívabb dolgokat, amelyekre jelenleg nem tud.

A jövőre nézve azon tűnődöm, nem lenne-e jobb, ha a növekvő digitális ikertestvérünket birtokolnánk és irányítanánk, nem pedig a munkaadóinkat. Kezdetben, mivel az ikrek nem tudnak működni nélkülünk, ez nem akkora probléma. Bár végül ezek a digitális ikrek jelenthetik a közeli utunk digitális halhatatlanság.

Mivel a Merlynn digitális iker egy játékot vált, és kezdetben segít kevésbé stresszessé és élvezetesebbé tenni a munkánkat, ez a hét termékem.

A cikkben kifejtett vélemények a szerzőé, és nem feltétlenül tükrözik az ECT News Network nézeteit.

hasonló hozzászólások

Leave a Reply