Két alapvető elmozdulás kíséri a mesterséges intelligencia fejlesztéseit. Az egyik a kíváncsiság, ami előre visz, a másik a félelem, ami pedig egyfajta visszatartó erő. Mindemögött egy kulcskérdés lebeg: hosszú távon emberivé lehet-e tenni a technológiát? Emberivé, azaz nem csak egy sokféleképpen használható eszközkészletté, hanem értékteremtő erővé, ami pozitívan szolgálja az üzleti vállalkozásokat és társadalmat is. Ennek mentén számos konzultáció és vita zajlik az etikus mesterséges intelligencia kritériumairól.
Az egyik ilyen kiemelkedő diskurzus az Európai Bizottság kezdeményezésére jött létre. Hátterében az egységes digitális piaci stratégia áll, melynek célja a vezető gazdasági pozíció a nemzetközi piacokon. A megbízható mesterséges intelligencia ezen belül erősen fókuszált terület. Dokumentuma (AI HLEG) 2018-ban készült el és 2019-ben ért a nyilvános szakmai vita szakaszába. A megbízható mesterséges intelligencia ennek definíciója szerint akkor valósul meg, ha teljes életciklusa alatt:
- Jogszerű
- Etikus
- Tiszteletben tartja az emberi autonómiát
- Szakmailag megbízható
- Társadalmilag stabil és átlátható
Ennek megfelelően az MI-fejlesztéseknél a folyamatos értékelés és az eredmények javítása, valamint az érdekelt felek bevonása alapvető. Ehhez olyan funkciók rendelődnek hozzá, mint a felügyelet, a biztonság, a megfelelő adatkezelés, a felelősségre vonhatóság és a társadalmi jólét.
Hogy mennyire alapvető átfogó stratégiát építeni MI-kérdésekben, azt Audrey Azoulay, az UNESCO főigazgatója frappánsan fogalmazta meg:
“Minden technológiai forradalom új egyensúlyhiányhoz vezet, melynek elébe kell vágnunk.”
Ennek érdekében az UNESCO például külön foglalkozik az olyan fejlődő technológiákkal, mint a robotika, a felhőalapú szolgáltatások és a dolgok internete, melyek átalakítanak tudományágakat, iparágakat és a gazdaságot is. Az MI ennek köszönhetően a társadalmi jólét lehetőségeként és a fenntartható fejlesztési célok támogatásaként jelenik meg projektjeikben – előnyben részesítve a globális normákat a békés fejlődés céljával.
A fenti két, társadalmakon átívelő megközelítésen túl a félelmek és várakozások már a konkrét fejlesztésekhez és kutatásokhoz kapcsolódnak. Legismertebbek ezek közül az önvezető autók morális kérdései a felelősségi szintektől a legkisebb emberi veszteségig (MIT Media Lab, Moral Machine, lásd még Gordon 2019), vagy az állampolgári viselkedést értékelő rendszerek különböző előnyökkel és szankciókkal (elsősorban a Social Credit Score System Kínában). Emellett számos feltörekvő kutatási és fejlesztési terület fókuszál további kérdésekre az egészségügytől az oktatáson át a kriminológiáig vagy az online médiáig (Feher 2019-2020).
Mindezek mélyén az az alapdilemma áll, hogy az általunk létrehozott technológia meddig szolgál minket, meddig bízhatunk benne, meddig és hogyan kontrollálhatjuk vagy fejleszthetjük anélkül, hogy visszaélésekre adna lehetőséget, vagy akár ellenünk fordíthatnák emberi vagy gépi döntések.
A kérdéskört azonban ennél pontosabban kell megfogalmazni: vajon az MI-nek kell etikusnak lenni, vagy annak az emberi értékrendszernek, ami létrehozza, táplálja, üzemelteti?
Önmagában etikus vagy nem etikus MI nem létezik.
Amikor ugyanis üzleti vállalkozások vagy kormányok létrehoznak MI-rendszereket, akkor az a kérdés, hogy ezek mennyire támogatják vagy ássák alá az olyan értékeket, mint a magánélet tiszteletben tartása, a visszaélés nélküli ellenőrzés vagy megfigyelés, az igazságosság és átláthatóság, avagy a szándék a társadalom fenntartható fejlődésére.
Etikusan tervezett, megbízható MI létezik.
Amennyiben alapjaiban etikussá teszünk tanuló digitális rendszereket, önálló munkájukat már eszerint tudják kivitelezni – a folyamatos ellenőrzés és a további fejlesztések pedig egyre magasabb szinten valósíthatják meg az értékteremtést.
Összefoglalva, a fenti diskurzusok és példák öt alapkritériumot fogalmaznak meg az “etikus MI” fejlesztésekhez:
- Átláthatóság
- Megbízhatóság
- Értékteremtés
- Fenntartható fejlődés
- Társadalmi jólét