Menü

Kiemelt témánk

Feliratkozás


38_HuffPost.jpg
Forrás: ITB

Szabályozás hiányában önként vállalt, széleskörű etikai alapelvek mentén folynak a mesterséges intelligenciával kapcsolatos fejlesztések. A fejlesztők felelőssége ezen a területen rendkívül fontos, így valós igény, hogy ők is tegyenek hippokratészi esküt, megígérve, hogy tudásukat jóra fordítják. Ha lesz is szabályozás, a GDPR hibáiból tanulva jó lenne, ha gyakorlati törvényt szavaznának meg a törvényhozók.

Már négy évvel ezelőtt írtak róla, de szélesebb körben csak 2018 őszén terjedt el Kínában egy megfigyelésen és adatokon alapuló pontrendszer. A szociális hitel 2020-re a tervek szerint teljesen általánossá válik az ázsiai országban. Egy olyan pontrendszerről beszélünk, amit az egyén társadalmi viselkedése alapján alakítanak. Például, ha megáll az autós a gyalogátkelőhely előtt, plusz pontokat kap, míg ha valaki tiltott helyen dohányzik, levonnak a pontjaiból. Aki időben befizeti a számláit, az „piros pontot” érdemel, ha valaki hamis hírt terjeszt az interneten vagy túl sokat játszik online, akkor jönnek a mínusz pontok.

 

Mesterséges intelligencia hadviselési célra

Egyelőre a nyugati sajtó is csak találgatja, miként működik a rendszer. Senki sem ismeri pontosan a részleteket, de a benne lévők azért igyekeznek betartani a játékszabályokat. A nyugati szemnek furcsa megfigyelőrendszer a mesterséges intelligencián, arcfelismerésen, adatok összeboronálásán alapszik. És valóban működik, mert egy, a Business Insider lapnak nyilatkozó kínai állampolgár szerint a rendszer bevezetése óta – melyet vegyesen önkormányzatok és technológiai cégek működtetnek – minden autós megáll a gyalogos átkelőhely előtt.

De nem kell az emberi jogok be nem tartásáról elhíresült országig menni a negatív példáért, az informatika bölcsőjében, a Szilícium-völgyben is akadnak rossz projektek. A Google-nél az alkalmazottak lelkiismeretén múlott csupán, hogy 2018-ban nem hosszabbították meg a Pentagonnal közös projektet, a Mavent. Ebben a projektben a drón által látottak értelmezésén dolgoztak. A gépi tanulás eszközeit vetették be azért, hogy azonosítsák a célpontokat, kiszűrjék a civil lakosságot; a videó segítségével felderített zónában felismerjék az objektumokat és bejelöljék azokat a térképen; a lefoglalt merevlemezeket azonnal felmérjék és kiszűrjék a fontos információkat.

A projekt ellen 4500 alkalmazott tiltakozott. Ez ugyan csak 5 százaléka a teljes munkavállalói bázisnak, de hangos kisebbségként sikerült elérniük, hogy az óriásvállalat nem újítja meg a 2019-ben lejáró szerződést. Túl sokba kerülne 4500 alkalmazottat elveszíteni, és túl keveset keresett a Google a 9 millió dolláros keretösszegű üzleten.

A Google hét etikai alapelve MI-fejlesztéshez

1. Társadalmi hasznosság

2. Az előítéletek kerülése

3. A biztonság szem előtt tartása

4. Átláthatóság

5. Privacy by design: az elveket, szabályokat már a tervezés első fázisaiban figyelembe kell venni

6. A tudományos kiválóság magas színvonalának fenntartása

7. Rendelkezésre állás azoknak, akik betartják az elveket

 

Alapelvek mentén, ügyesen

Az eset talán legfontosabb, és a cég teljes működésére kiható hozadéka a 2018 őszén megfogalmazott MI-alapelvek, melyeket a vállalat a mindennapi működésben, a termékek fejlesztésekor, vagyis mindig szem előtt tart. A keretes írásunkban felsorolt hét alapelv ugyan széles értelmezésnek ad helyet, ám a keresőóriás azokat a területeket is megjelölte, amikor biztosan nem használják a mesterséges intelligenciát: ha ártani akarnak vele, vagy pénzügyi kockázat esetében, amikor mérlegelnek, és csak akkor engedélyezik a MI-t, ha az egyértelmű előnnyel jár.

Ha valaki használni szeretné a technológiát, akkor be kell tartania a nemzetközi törvényeket és az alapvető emberi jogokat is. Hogy ebből valóban mennyit tartanak be, nos, nem tudni, de legalább elvi szinten megvan a törekvés az emberséges mesterséges intelligencia fejlesztésére.

A Google 2015-ben már megégette magát a Photos automatikus címkéző szolgáltatásával, amely gorillának ismerte fel a színes bőrű embereket (ezt mindmáig nem orvosolták, csak letiltották a címkét). A kisebbségek felismerésével más alkalmazásoknak is gondja adódott, az arcfelismerő megoldás sokat hibázik a színes bőrű nők esetében – ahogy az az MIT Media Laboratóriumának munkatársa, Joy Buolamwini és egy stanfordi egyetemista, Timnit Gebru közös tanulmányából kiderült.

A kutatásban 1270 európai és afrikai képviselő fotóját mutatták meg a Microsoft, IBM és egy kínai szolgáltató a Megvii Face++ arcfelismerő programjának. Az algoritmus sokkal jobban működött férfi és fehér, mint színes és női arcokon. A fehér férfiakat a Microsoft szolgáltatása tökéletesen felismerte, az IBM algoritmusánál a hibaszázalék 0,3 volt. A sötétebb női arcok esetében a Microsoft szolgáltatása 21 százalékos hibával dolgozott, az IBM és Mevii algoritmusa meg 35 százalékossal.

A szolgáltatók gyorsan reagáltak és fogadkoztak, hogy ezentúl jobban figyelnek a diverzitásra, mikor példákat mutatnak a tanuló algoritmusnak. Az arcfelismerés igen érzékeny terület, az amerikai rendőrség számára viselhető kamerákat gyártó Axon pont emiatt jelezte, hogy nem kínál arcfelismerő szolgáltatást a rendőrségnek – ahogy a Google és a Microsoft sem kínál hasonló szolgáltatást a területet jellemző jogi rendezetlenség miatt. Egyedül az Amazon bátor eléggé ahhoz, hogy az amerikai rendőrségnek biztosítson (a sajtó szerint kétes minőségű) arcfelismerést. Miközben az Amazon még saját MI-elveket sem fogalmazott meg, csupán a „Partnership on AI” iparági konzorcium tagja.

 

Jön a nagy eskü a fejlesztőknek

Más óriási technológiai vállalatoknál is önként vállalt etikai alapelvek mentén folyik a termékfejlesztés, a helyzetek megítélése. Például a Microsoftnál az általános gyakorlat az, hogy időről időre összeülnek a termékfejlesztésben érintett vezetők, megvizsgálják, hogy az adott mesterséges intelligencia-fejlesztés a már előre meghatározott hat etikai alapelv (lásd keretes írásunkat) betartásával folyik-e vagy sem.

A Microsoftnál joggal óvatosak, hiszen egy öntanuló chatbot fejlesztésekor komolyan megütötték a bokájukat: 2016-ban a Twitter népének kezébe engedték a Tay nevű chatrobotot, amely tinédzser kislány módján eleinte szende válaszokat adott. Majd a kérdésekre, válaszokra reagálva, belőlük tanulva egy radikális jobboldali, szeximádó robotlánnyá fajult. A fejlesztőcég egy nap múlva kikapcsolta a chatbotot, de hosszú évtizedekre kiható tanulságot vont le belőle. Ez a történet is hozzájárult a már említett, hat etikai alapelv megfogalmazásához.

 

A kék óriás elképzelései szerint a fejlesztőknek hatalmas a szerepük és a felelősségük ezen a téren, ezért is javasolták, hogy az orvosok körében már bejáratott hippokratészi eskü mintájára ők is tegyenek esküt munkájuk elkezdése előtt. Ebben vállalják, hogy az elfogadott etikai irányelvek mentén dolgoznak, és hogy csak jóra használják tudásukat – beszélt a témáról Mátrai Zsuzsanna, a Microsoft Magyarország kormányzati kapcsolataiért felelős igazgatója.

Ez az eskü nem is olyan rossz ötlet, hiszen a fejlesztőkben is tudatosítaná, milyen komoly területen dolgoznak. A felelősség felismerése sem általános: a kisebb fejlesztő cégeknél a programozó józan eszére bízzák az elvárt alapvető etikai normák betartását, de olyan nagyobb, nemzetközi cégeket is találtam, ahol (remélhetőleg csak még) nem foglalták írásba a mesterséges intelligencia és az elvárt normák kapcsolatát.

 

Tanuljunk a GDPR hibáiból!

Az önszabályozásra azért is szükség van, mert szélesebb körben is csak általános megfogalmazás létezik a mesterséges intelligencia szabályozása területén. Két konkrét példában foglalkozik a törvénykezési gyakorlat a témakörrel, de akkor is érintőlegesen. Mert hogyan szabályozzunk valamit, amit nem értünk, nem tudjuk, hogy fejlődik, nincs elegendő tapasztalat működésével kapcsolatban?

A tavaly májusban hatályba lépett GDPR 22. cikkelye foglalkozik az automatizált döntéshozatal és a profilalkotás kérdésével – mondta Domokos Márton, az Ormai és Társai CMS Cameron McKenna LLP Ügyvédi Iroda munkatársa. A személyes adatok védelmében megfogalmazott szabályozás engedélyezi, hogy automatizált döntéshozatal történjen, automatikusan készüljön például a biztosítási csalások kiszűrése érdekében egy profil az emberekről. Ilyen esetben lehetőséget kell biztosítani az emberi beavatkozásra, hogy a döntésben érintett kifogást nyújthasson be, illetve kérheti, hogy a felülvizsgálatot egy ember végezze el. Ez persze azt feltételezi, hogy a döntéshozatal, a profilalkotás transzparensen történt, így végig nyomon követhető, hogyan jutott az adott következtetésre az algoritmus.

A gyakorlatban sajnos ez a transzparencia nem mindig adott, mert a gépi tanulás, az MI eleve úgy működik, hogy kevesek értik, miért úgy dönt, ahogy dönt. Ugyanakkor a transzparencia sértheti az üzleti titkot, így a fejlesztővállalat ellenérdekelt lehet az átlátható működésben.

A Microsoft hat etikai alapelve MI-s fejlesztésekhez

1. Igazságosság – ne legyen előítélet, elfogultság

2. Megbízhatóság – biztonságos működés

3. Biztonság – védje a magánszférát

4. Befogadás – mindenki számára legyen elérhető

5. Átláthatóság – követhető működés

6. Felelősség – elszámoltathatóság

 

Chatbot vagyok és tájékoztatlak

Egy másik konkrét eset a chatbotokat szabályozó kaliforniai törvény, amely elővetíti, milyen jellegű szabályozás várható a mesterséges intelligencia esetében. A rövid szabályozás 2019 júliusától kötelezővé teszi Kalifornia állam területén működő cégeknek, hogy tájékoztassák az embereket, ha chatbottal beszélgetnek, leveleznek. Főleg fogyasztóvédelem területen érdekes a chatbot kérdése – mondja Domokos Márton –, hiszen ha valamit elront a csevegő szoftver, félretájékoztatja az ügyfelet, akkor ki a felelős: a szolgáltatást nyújtó vagy a programot író vállalat?

Érdemes még a szolgáltatás elindítása előtt tisztázni ezeket a kérdéseket, és mindent leírni, elérhetővé tenni a fogyasztók számára is. Az autógyártók példája előremutató – véli az ügyvéd –, lásd a BMW minden felelősséget magára vállalt önvezető autójával kapcsolatban, ezzel is segítve a technológia terjedését. A szakember azonban óva int mindenkit az elhamarkodott döntésektől, és azt javasolja, hogy tanulva a GDPR hibáiból olyan MI-szabályozást alkossanak a törvényhozók, amely a gyakorlatban is megállja a helyét, és nem teremt olyan megoldásokat, ahol a szociális hitel alapján értékelik az embereket.

Karrierszkenner

Kíváncsi, hol dolgozik egykori kollégája, üzleti partnere?
Szeretné, ha az ön karrierjéről is hírt adnánk?

Böngésszen és regisztráljon!

Jelenleg 2053 személy szerepel adatbázisunkban.
Az utolsó regisztrált:Somkutas Norbert

A legkeresettebb emberek:

Cégszkenner

Melyek az ict-iparág legfontosabb cégei?
Melyek a fontosabb felhasználók más iparágakból?

Regisztrálja cégét Ön is!

Jelenleg 4910 cég szerepel adatbázisunkban.

A legkeresettebb cégek: