Bizottsági arcképcsarnok

Készült: 2024.05.14.14:58:02 Dinamikus lap

Felszólalás adatai

93. ülésnap (2023.11.23.), 21. felszólalás
Felszólaló Dúró Dóra (Mi Hazánk)
Beosztás  
Bizottsági előadó  
Felszólalás oka felszólalás
Videó/Felszólalás ideje 11:58


Felszólalások:  Előző  21  Következő    Ülésnap adatai

A felszólalás szövege:

DÚRÓ DÓRA (Mi Hazánk): Köszönöm a szót. Tisztelt Elnök Úr! Folytatnám én is alapvetően a mesterséges intelligencia által felvetett problémákkal, de két gondolatot ezt megelőzően engedjenek meg számomra!

Demeter képviselő úr beszélt arról, hogy a gyermekeinket megkérdezzüke a digitális eszközök használatáról. Itt egy nagyon súlyos és tényleg nagyon alapvető kormányzati hiányosságra szeretném felhívni a figyelmet, ugyanis a digitális eszközök jelenlegi használata a fiatalok, gyerekek döntő többsége körében sajnos inkább rombolja az ő fejlődésüket, semmint hogy elősegítené azt.

Annak, hogy a digitális eszközöket úgy használja a magyar társadalom, a magyar állam meg egyébként az egész bolygó, hogy azok az emberiség javát szolgálják, ennek valóban megvan a lehetősége, de sajnos a realitások nem ezek. Ha megnézzük azokat a felméréseket, amelyek a fiatalok körében készülnek, akár a magyarifjúság-kutatás, de számos más nem kormányzati intézmény is készít ilyen felméréseket, hogy önmagában mennyi időt töltenek a fiatalok ezen okoseszközök használatával napi szinten, akkor döbbenetes számokat kapunk: napi szinten 4 és 8 óra közötti az az idő, amit ezeknek az eszközöknek a használatával töltenek. Pécsi Rita neveléskutató írt egy könyvet is arról  összeszedve a nemzetközi tapasztalatokat is , hogy milyen elképesztő mértékű fejlődési károkat okoz a gyerekek esetében ezeknek az eszközöknek a túlhasználata.

Tehát ha már a digitális eszközök alkalmazásáról és a gyerekeinkről beszélünk, akkor sokkal fontosabb és a jövőnket alapvetően meghatározó lenne az, ha azokra a veszélyekre figyelnénk, amelyek a gyerekeinket érik ezeken keresztül, és itt most nemcsak az adatvédelemről, nemcsak a BigTech cégek által okozott veszélyekről beszélek, hanem önmagában az idegrendszeri fejlődésükről, az ismeretek elsajátításának a módjáról, és számos más, a tanulásukhoz, fejlődésükhöz kapcsolódó területről. Ha erre lenne állami program, hogy felhívják erre a figyelmet, azzal sokkal beljebb lennénk, mintha ilyen digitális állampolgárságot próbálnának reáerőltetni az emberekre.

Másrészről, ahogyan említettem az előző felszólalásomban is, itt alpvető szemléletbeli kérdésről van szó, és egészen vissza kell mennünk ahhoz a kérdéshez, hogy mit gondolunk magáról az emberről, és ha az embert helyeznénk központba  ahogy önök egyébként nem teszik, ez a gazdaságfejlesztésükön és gazdaságpolitikájukon is látszik , akkor ez kellene legyen az elsődleges szempont, és ehhez igazodna az a szabályozás is, amit akár a digitális állampolgársággal, akár a mesterséges intelligenciával kapcsolatban önök tesznek. De látjuk, hogy a gazdaságfejlesztési koncepciójuk sem az, hogy az emberekbe, tehát az oktatásba, a tudás elsajátításába, az innovációba fektessenek, hanem gyárak, fizikai létesítmények létrehozását támogatják döntő mértékben a gazdaságpolitikájukban is. És ennek a kivetülése látszik meg ezen a törvényjavaslaton is.

És akkor rátérve a mesterséges intelligencia kérdésére  nem elfeledve, hogy azért a természetes intelligenciának is lenne vagy kell hogy legyen továbbra is szerepe, és arról is kellene beszélnünk , néhány problémafelvetéssel élek a mesterséges intelligencia alkalmazásával kapcsolatban, amelyekre nem látom azt, hogy ez a törvényjavaslat egyébként választ adna, és szerintem ez is nagyon fontos alkotmányossági probléma, hogy nem látjuk, tehát, önök úgy hivatkoznak a mesterséges intelligenciára és úgy vezetik be gyakorlatilag az államigazgatásba ennek az alkalmazását, hogy alapvető kérdésekre nem kapunk választ.

Az első problémafelvetésem maguktól a mesterségesintelligencia-alapú szoftverek fejlesztőitől származik, hiszen ők maguk gyakran elismerik, hogy ők sem értik, hogy a mesterséges intelligencia valójában hogyan működik. Tehát az úgynevezett feketedoboz-effektusról van szó, ami szerint nem világos, hogy a bemenet és a kimenet között mi történik, vagyis a mesterséges intelligenciának feltett kérdésre az adott válasz pontosan hogyan és milyen folyamatok alapján készül el. Ez egyébként önmagában felvet számos jogi problémát. A ChatGPT működésével kapcsolatban már láttuk azt, hogy nagyon sokszor hibás tanácsokat ad, és mára már az is közismert tény, hogy gyakran téved, sőt hallucinál is. Ezekről is nagyon érzékletes cikkek jelentek meg. Tehát látjuk azt, hogy hibásan is tud akár működni. Mi alapján, és ki tudja eldönteni, hogy mikor működik hibásan, és mi történik akkor, ha egy ilyen hibás működés következtében államigazgatási döntéseket fog meghozni ez a technológia.

(10.30)

Az sem világos számunkra, hogy a kormány által alkalmazni kívánt mesterséges intelligencia pontosan milyen technológia lesz, és hogyan fogja biztosan a magyar állampolgárok adatkezeléssel kapcsolatos és egyéb alapjogainak érvényesítését biztosítani.

Felmerül a felelősségnek a kérdése is, amit szintén nem rendeznek: ki a hibás, ha egy ilyen rossz döntést meghoz a mesterséges intelligencia? Az állam magára vállaljae a felelősséget, vagy aláíratnak majd az állampolgárokkal egy papírt  vagy most már nem papírt, mert nyilván az is digitális térben fog történni , hogy ők vállalják a felelősséget azért is, ha a mesterséges intelligencia valamilyen rossz döntést hoz? Az állampolgár felelőssége lesz, az államé, vagy a mesterséges intelligenciát fejlesztő szoftverfejlesztő cégnek a felelőssége lesz, és milyen módon tudja az állampolgár érvényesíteni a saját jogait? Illetve ki fog, mondjuk, anyagi felelősséget vállalni azokért a károkért, amelyek a mesterséges intelligencia hibás működése miatt az állampolgárt érték?

Alapvető jogok tekintetében is nagyon súlyos kockázatok merülnek fel, és ezeket egyébként nemcsak Kínával kapcsolatban és nemcsak a Mi Hazánk Mozgalom fogalmazza meg, hanem az Európai Parlamentben is felmerültek ezek, hogy a gyülekezési és a tiltakozási szabadság sérelmében is szerepet játszhat a mesterséges intelligencia.

Nem beszélve arról, hogy a munkahelyekre milyen hatással lesz, illetve magának a mesterséges intelligenciának önmagában versenytorzító hatása is lehet. Különböző számok láttak azzal kapcsolatban napvilágot, hogy közvetlenül hány munkahelyet szüntethet meg akár Európában, akár Magyarországon a mesterséges intelligencia, ugyanakkor ezt sokkal mélyebben át kellene gondolnia a kormányzatnak is, illetve társadalmi vitát kellene arról folytatni, hogy ezekre nekünk valóban szükségünk lesz, és mi lesz azokkal az emberekkel, akiknek a munkahelye néhány éven vagy egy évtizeden belül megszűnhet.

Az információk felhalmozása önmagában is a verseny torzulásához vezethet, mivel a több információval rendelkező vállalatok előnyhöz jutnak, ezt is okozhatja a mesterséges intelligencia, illetve azok az adatok, amelyekhez a mesterséges intelligencia hozzáfér.

És itt a biztonsági kockázatok vonatkozásában is fel kell hívnom a figyelmet arra, hogy a legszélsőségesebb esetben, például a fegyverek esetében alkalmazni kívánják a mesterséges intelligenciát, ami most tudom, hogy ebben a javaslatban nem szerepel, de hát nyilván ennek minél szélesebb körű kiterjesztése a cél, illetve nemzetközileg látunk már arra példát, hogy ezt megfogalmazták. Ilyenkor az emberi kontrollnak az elvesztéséhez is vezethet a mesterséges intelligencia alkalmazása, és nem beszélve arról, hogy az emberek számára nem egyértelmű, hogy a mesterséges intelligenciával vagy személlyel lépnek kapcsolatba. Ez már most is nagyon gyakori különböző cégek esetében, ahol az ügyfélszolgálat során ugye csetelhetünk, vagy mesterséges intelligenciával beszélgethetünk adott esetben, és sajnos a magyar társadalomnak a tudatossága e tekintetben nem teszi lehetővé, hogy ezt ők azonnal érzékeljék. Ilyen esetekben azért nagyon fontos lenne a fogyasztót, a felhasználót védeni, hogy egyrészt alapvetően tisztában legyen azzal, hogy kivel beszél, kivel lépett egyáltalán kapcsolatba, illetve milyen jogai vannak akkor, hogyha mesterséges intelligenciával lépett kapcsolatba, és azokat hogyan tudja érvényesíteni; a felelősségi viszonyokat szintén fontos lenne tisztázni.

A brit parlamentnek van tudományos innovációs és technológiai bizottsága, amely körülbelül egyéves vizsgálat után a mesterséges intelligenciával kapcsolatban egy veszélyegyüttesre hívta fel a figyelmet, és ezeket, úgy gondolom, hogy a magyar kormánynak is, illetve a magyar parlamentnek is fontos lenne tisztáznia. Egyrészt megállapították azt, amiről az előbbiekben is beszéltem, hogy maga a mesterséges intelligencia elfogult, lehetővé teszi az emberek azonosítását és a személyes adatoknak a megosztását. Innentől kezdve visszacsatolok az előző felszólalásomra, ami a személyiségprofilnak a kialakításáról szólt: azt is megállapították, hogy félrevezető információkat közölhet, amivel befolyásolja a felhasználó döntését vagy viselkedését. Nagyon fontos és szintén a versenytorzító hatáshoz is kapcsolódik, de a nemzetállamok kiszolgáltatottságát is növeli, hogy a nagy adatkészleteket csak kevés szervezet birtokolja. Ez, szintén nem kell mondanom, hogy milyen veszélyeket rejt önmagában.

A számítási kapacitás, amit igényel, az is csak nagyon korlátozottan érhető el, illetve bizonyos esetekben az eredmények nem átlátható módon születnek. A brit parlament bizottsága szerint nyílt forráskódúnak kellene lennie, de a szabadalmak miatt a piac dominál. Megsérthet szerzői és egyéb tulajdonjogokat, ez is egy nagyon fontos vetülete a mesterséges intelligencia alkalmazásának, illetve számos olyan más kérdést fogalmaztak meg, amelyet az előbbiekben is említettem. A nemzetbiztonsági és az emberi életre leselkedő veszélyeket is kiemelte a brit parlamentnek ez a bizottsága.

Tehát, ha már a mesterséges intelligenciát alkalmazni szeretnénk, amelynek egyébként lehetnek érdemi indokai is, ezt csak azután tehetjük meg, hogy ezeket az aggályokat megfelelő és megnyugtató módon sikerül a magyar kormánynak is valamilyen, a társadalom számára is elfogadható módon rendeznie. Köszönöm a figyelmet. (Balassa Péter tapsol.)




Felszólalások:  Előző  21  Következő    Ülésnap adatai