Inteligjenca Artificiale: 4 problemet kryesore, të shpjeguara nga një ekspert i Etikës

704
Sigal

Dr. David Hagenbuch

Paralajmërimi i Elon Musk rreth inteligjencës artificiale (I.A.) dhe krijimit të një gjuhe që Facebook nuk mund ta kuptojë, mund të sjellë në mendjet tona, imazhe të robotëve që pushtojnë botën. Ndërsa një apokalips i tillë mund të jetë i ekzagjeruar, një pasojë më realiste e IA tashmë ekziston dhe paralajmëron një shqetësim serioz: Ndikimi etik i Inteligjencës Artificiale.

IA funksionon, pjesërisht, sepse algoritmet komplekse identifikojnë në mënyrën e duhur, kujtojnë dhe lidhen me të dhënat. Megjithëse përpunimi i tillë i të dhënave prej makinave ka ekzistuar për dekada, tani dallimi është që kompjutera shumë të fuqishëm përpunojnë terabajte me të dhëna dhe japin rezultate domethënëse, në kohë reale. Për më tepër, disa makina mund të bëjnë atë që ka qenë fushë ekskluzive e njerëzve dhe jetës tjetër inteligjente: Të mësojnë vetë, në mënyrë të pavarur.

A është ky mësim i automatizuar, ai që paraqet një pyetje kritike: A mund të mësojnë makinat të jenë morale?

Si studiues i shkolluar me metodën shkencore dhe një ekspert i etikës, me studime të thelluara në vendimmarrjen morale, e di që është sfiduese për njerëzit të lundrojnë në të njëjtën kohë, në dy arena të ndryshme. Është edhe më e vështirë të parashikohet se si algoritmet kompjuterike mund t’i mundësojnë makinave të veprojnë në mënyrë morale.

Edhe akademia, edhe biznesi përdorin shkencën pozitive për të identifikuar ndërlidhjet dhe shkak-pasojën. Rezultatet e një studimi të tillë bazohen mbi informacione objektive. Për shembull, algoritmi i një hipotekuesi mund të gjejë që huamarrësit në vijën ndarëse, janë më të interesuar për reklamat që sugjerojnë një rritje të normës së interesit, një ditë pasi ekipi i tyre i preferuar i futbollit ka humbur një ndeshje të madhe. Kompjuterët e përpunimit të të dhënave mund të identifikojnë këtë lidhje, dhe të mësojnë që të ofrojnë reklamën përkatëse.

Megjithatë, zgjedhja morale nuk pyet nëse një veprim do të prodhojë një rezultat efektiv; pyet nëse është një vendim i mirë. Me fjalë të tjera, pavarësisht nga efikasiteti, a është gjëja e duhur për t’u bërë? Një analizë e tillë nuk reflekton një vendim objektiv, të bazuar në të dhëna, por një vendim subjektiv, bazuar në gjykime.

Vendosja e reklamave manipuluese përpara një tregu pak të kualifikuar dhe emocionalisht të prekshëm, mund të jetë shumë efektive për kompaninë e hipotekimit, por shumë njerëz do ta kundërshtonin etikën e promovimit. Njerëzit mund ta bëjnë këtë gjykim moral, por si e nxjerr të njëjtin konkluzion një kompjuter i drejtuar vetëm nga të dhënat? Pikërisht këtu qëndron ai që duhet të jetë një shqetësim kryesor për IA.

Individët shpesh marrin vendime morale në bazë të parimeve si mirësjellja, sinqeriteti, ndershmëria dhe respekti. Në një farë mase, njerëzit i mësojnë këto parime përmes studimit dhe reflektimit formal; megjithatë, mësuesi kryesor është përvoja jetësore, e cila përfshin praktikën personale dhe vëzhgimin e të tjerëve. Disa shkojnë edhe një hap më tej dhe argumentojnë se këto vlera janë të lindura, pra, ne kemi lindur me to.

A mund të prodhohen kompjuterë me një ndjenjë të mirësisë? A mundet që gjuha e kodit e kompjuterëve të përfshijë edhe drejtësinë? A mundet algoritmet të mësojnë respektin? Duket e pabesueshme që makineritë të imitojnë gjykimin subjektiv dhe moral, por nëse ekziston ky potencial, duhet të zgjidhen të paktën katër çështje kritike:

1. Standardet morale të kujt duhet të përdoren?

Ndërsa ekziston një listë e shkurtër e parimeve etike të përbashkëta, interpretimet individuale të këtyre parimeve ndryshojnë shpesh. Për shembull, ekziston një spektër i gjerë mendimesh në kuptimin e asaj që përbën një gjuhë të mirë dhe një veshje të pranueshme.

2. A mund të bisedojnë makina për çështjet morale?

Edhe pse njerëzit mund të pajtohen me standarde të ndryshme morale, shpesh i kapërcejnë dallimet e tyre përmes diskutimeve dhe debatit, ndonjëherë duke angazhuar palë të jashtme. Si e përsërit teknologjia këtë dialog të lirë dhe, më e rëndësishmja, si mund të shfaqë një dëshirë për pajtim?

3. A munden algoritmet të marrin parasysh kontekstin?

Një nga shenjat dalluese të vendimmarrjes morale është se është se ajo ka shumë nuanca. Për shembull, në shumicën e rasteve është e arsyeshme për një kompani që të rrisë çmimet, nëse produktet e saj kanë mungesë dhe kërkesa është shumë e lartë. Sidoqoftë, po sikur produkti është një ilaç që shpëton jetë dhe industria e ka bërë kompaninë, furnizuesin e vetëm të mbetur, e në të njëjtën kohë një recesion kombëtar vendos një trysni të shtuar financiare mbi tregun e synuar. A mundet një kompjuter të inkorporojë këtë informacion specifik dhe të bëjë një vlerësim subjektiv të një situate kaq unike?

4. Kush duhet të jetë përgjegjës?

Është e zakonshme për njerëzit e përfshirë në skandale në organizata, që të fajësojnë të tjerët, në një përpjekje për të shfajësuar veten. Çfarë ndodh pastaj, kur një gabim pikaset tek një makinë që mëson vetë? Nëse një kompjuter nuk mund të mbahet përgjegjës, kush duhet të jetë – kompania që e ka bërë makinerinë, firma që ka shkruar programin që përdor kompjuteri, apo organizata që e ka përdorur atë? Ç’është më e rëndësishmja, cilët njerëz specifik duhet të jenë përgjegjës?

Është inkurajuese të shohësh inteligjencën artificiale në veprim, e cila tashmë ka ndikim pozitiv në shumë fusha të jetës, dhe është emocionuese të përfytyrosh aplikacione më të avancuara që do ta shumëfishonin këtë ndikim. Është gjithashtu e domosdoshme që ata që zhvillojnë teknologjinë të kultivojnë ‘qëndrueshmërinë morale’: një të ardhme në të cilën zgjedhja e asaj që është e drejtë, të jetë e koduar në një farë mënyre në Inteligjencën Artificiale.

* Dr. David Hagenbuch është profesor i marketingut në Kolegjin Messiah, autor i “Influenca e Nderuar” dhe themeluesi MindfulMarketing.org, i cili synon të inkurajojë marketingun etik. / Business Insider