Več

Kakšna je matematika za Izogibajte se visokemu, srednjemu in nizkemu v Network Analyst in ali ga je mogoče spremeniti?


Ko ustvarjate omrežje, lahko v razdelku z atributi določite omejitve. Med takšnimi omejitvami so Izogibajte se visoki, srednji, nizki in raje visoki, srednji, nizki. Ali lahko kdo matematično razloži, kaj se tukaj zgodi in ali je to mogoče spremeniti? Drugje nisem našel informacij.


Stroški se pomnožijo z naslednjimi vrednostmi:

  • Izogibajte se: Visoko: 5
  • Izogibajte se: Srednje: 2
  • Izogibajte se: Nizka: 1.3

Namesto teh treh prednastavljenih vrednosti lahko po želji vnesete številčno vrednost.

Vir: http://desktop.arcgis.com/en/desktop/latest/guide-books/extensions/network-analyst/using-parameters-with-network-attributes.htm


Zapolnitev vrzeli v kapitalu delovne sile

Ljudje pogosto rečejo, da je za pravilno opravljanje dela (in za njegovo pravočasno opravljanje) ključno pravilno orodje. Za programe za razvoj delovne sile, namenjene prikrajšanim skupinam prebivalstva, pogosto delajo z neustreznimi orodji. Rezultat je zaostajanje pri izvajanju programov in pobud.

Kaj & # 8217 manjka? Učinkoviti podatki o lokalnih spretnostih, po katerih je povpraševanje.

Reševanje tega problema in vzpostavitev pravih orodij je ideja nedavne podpore Strada Education Network. Cilj, ki ga podeljujejo UNCF, je odpraviti vrzeli v priložnostih za delovno silo za študente barve in mlade odrasle iz prikrajšanih okolij.

"Voditelji si močno želijo kakovostne, dostopne, enostavne izmenjave, enostavne interakcije, globlje ravni, če to potrebujejo njihovi analitiki, načina obdelave in vključevanja novih informacij o delovni sili," pravi Julian Thompson, višji vodja programa pri UNCF.

Ta projekt je tako edinstven, ker lahko voditelji sodelujejo s podatki o svoji delovni sili. Na koncu ni prinesel samo poročila, temveč tudi napravo, ki prikazuje poklicne poti, odvisno od uporabnikovih vložkov. Z pridobljenimi vpogledi lahko Atlanta jasno določi strategije delovne sile za odpravo vrzeli lastniškega kapitala v črni skupnosti. In dolgoročneje presegajte strategije, da izkoristite nov učni ekosistem, ki ga vodijo veščine. Takšen ekosistem bi lahko učinkoviteje določil karierne poti in srednješolce in mlade odrasle z usposabljanjem preusmeril v smiselno delo na področjih z velikim povpraševanjem.


8 Odgovori 8

Obstajajo zelo različna področja matematike, nekatera so bolj usmerjena v teorijo, nekatera bolj v problematiko. Teoretsko usmerjena področja (kot je npr. Algebraična geometrija) so zgrajena od spodaj navzgor, medtem ko problemsko usmerjena področja (kot so kombinatorika, diskretna optimizacija) ponujajo kup metod, ki so primerne za reševanje problemov, in jih morate pametno kombinirati. Duh slednjih področij je veliko bližje "občutku matematične olimpijade", medtem ko prva področja zahtevajo drugačna znanja.

Olimpijske težave mislim bolj kot "trike v salonu". Res so težki in izjemno impresivno je, če jih nekdo dobro pozna, vendar se spretnosti zelo razlikujejo od znanj, ki jih potrebujete pri raziskovanju. Kot velik primer razlike: olimpijada nagrajuje hitre natančne preskoke, ker ste pod takim časovnim pritiskom. Raziskave nagrajujejo dolgoročno krhkost in vztrajnost skozi slepe ulice in ponavljajoče se neuspehe.

Omejitev odgovornosti: Sodeloval sem na mednarodni matematični olimpijadi in doktoriral iz operativnih raziskav, kar je v bistvu vrsta uporabne matematike.

Med matematičnimi olimpijadami in raziskovalno matematiko se nekaj prekriva. Kot pa so ugotovili drugi, je matematika zelo široko področje, ki vključuje podpolja, kot so: algebrska topologija, teoretična računalništvo, kombinatorika, teorija nadzora, optimizacija, statistika / strojno učenje. Količina prekrivanja z matematičnimi olimpijadami je zelo odvisna od tega, na katero podpolje "raziskovalne matematike" se sklicujete. Matematične olimpijade se bolj prekrivajo z recimo kombinatoriko in manj s teorijo nadzora.

Na treningu za matematične olimpijade sem se naučil, kako preizkusiti posebne primere, da dobim intuicijo o tem, kako problem deluje, in kako korak za korakom poenostaviti problem ter kako napisati logičen in popoln dokaz. Naučila sem se tudi, kako vztrajati in uživati ​​v izzivu, kako se spoprijeti s težavnimi težavami, pa tudi, kdaj se odpovedati, ko sem včasih kar zataknjena. Mislim, da so to spretnosti, ki se zahtevajo tudi pri raziskovalni matematiki.

Zato menim, da obstaja pozitivna, a nepopolna povezava med uspešnostjo na matematičnih olimpijadah in uspešnostjo v raziskovalni matematiki. Če se v IMO ne znajdete najbolje, ste lahko še vedno uspešen profesor matematike in če na IMO dobite popoln rezultat, to še ne pomeni, da vam bo zagotovljena uspešna raziskovalna kariera.

Končno je matematična olimpijada umetno tekmovanje, saj je vse tegobe v olimpijadi mogoče rešiti v dokaj kratkem času z razmeroma majhnim naborom trikov. Po drugi strani pa je v resničnem svetu raziskovalna matematika veliko bolj odprta, sami morate najti in opredeliti svoje raziskovalne probleme, pogosto pa jih težav ni mogoče rešiti!

Uporabil bi analogijo, da je olimpijska matematika kot RPG, kot je Legenda o Zeldi: Dih divjine, medtem ko je raziskovalna matematika kot resnično življenje, izjemno neurejena in odprta.


1. Skrbi razvoj dogodkov na področju umetne inteligence

Oblikovanje splošno sprejetih etičnih sistemov umetne inteligence bi bilo precej težko - nekateri bi lahko rekli nemogoče -. Del odgovarjajočih strokovnjakov je ugotovil, da je etiko težko opredeliti, izvajati in uveljavljati. Rekli so, da je kontekst pomemben, ko gre za etične vidike. Vsak poskus oblikovanja etičnih pravil ustvarja nešteto različnih scenarijev, v katerih so lahko uporaba teh pravil neurejena. Pomembna sta tudi narava in relativna moč akterjev v danem scenariju. Socialni standardi in norme se razvijajo in se lahko spreminjajo, ko se kulture spreminjajo. Malo ljudi ima veliko izobrazbe ali usposabljanja iz etike. Poleg tega dobri in slabi akterji izkoriščajo vrzeli in sive površine, kjer etična pravila niso jasna, zato pogosto obstajajo rešitve, popravki ali druga sredstva z različnimi stopnjami uspeha.

Strokovnjaki, ki so izrazili zaskrbljenost, so se sklicevali tudi na pomisleke glede upravljanja. Vprašali so: Čigave etične sisteme je treba uporabiti? Kdo se lahko tako odloči? Kdo je odgovoren za izvajanje etične umetne inteligence? Kdo lahko uveljavi etične režime, ko se vzpostavijo? Kako?

Veliko anketirancev je trdilo, da so geopolitična in gospodarska konkurenca glavni dejavniki za razvijalce umetne inteligence, medtem ko moralni pomisleki zaostajajo. Del teh strokovnjakov je dejal, da ustvarjalci orodij za umetno inteligenco delajo v skupinah, ki imajo malo ali nič spodbude za oblikovanje sistemov, ki obravnavajo etična vprašanja.

Nekateri anketiranci so ugotovili, da tudi če bi lahko postavili izvedljive etične zahteve, jih ni mogoče uporabljati ali urejati, ker je večina oblikovanja umetne inteligence lastniška, skrita in zapletena. Kako lahko diagnosticiramo in obravnavamo škodljive "izide" umetne inteligence, če ni mogoče razbrati osnove za "odločitve" umetne inteligence? Nekateri od teh strokovnjakov tudi ugotavljajo, da se obstoječi sistemi umetne inteligence in baze podatkov pogosto uporabljajo za izdelavo novih aplikacij umetne inteligence. To pomeni, da so v nove sisteme vgrajeni pristranskosti in etično zaskrbljujoči vidiki sedanjih sistemov. Pravijo, da je diagnosticiranje in odpravljanje že obstoječih težav težko, če ne celo nemogoče doseči.

Težko je opredeliti "etično" umetno inteligenco

Del teh strokovnjakov je svoje odgovore zasul z vprašanji, ki se nanašajo na to splošno vprašanje: Kako je mogoče opredeliti in uporabiti etične standarde za globalno, medkulturno, nenehno razvijajoče se, vedno bolj razširjeno vesolje različnih sistemov črne škatle, v katerih je slabo uspevajo igralci in napačne informacije?

Izbor komentarjev anketirancev o tej široki temi je organiziran na naslednjih 20 straneh pod temi podnaslovi: 1) Težko se je strinjati, kaj predstavlja etično vedenje. 2) Ljudje so težava: čigava etika? Kdo odloča? Koga briga? Kdo izvršuje? 3) Kot vsa orodja se lahko tudi umetna inteligenca uporablja za dobro ali slabo, kar postavlja izziv pri postavljanju standardov. 4) Nadaljnji razvoj umetne inteligence sam postavlja vprašanja in zaplete.

Stephen Downes, višji raziskovalec za digitalne tehnologije pri Nacionalnem raziskovalnem svetu Kanade, je opazil: »Težava pri uporabi etičnih načel pri umetni inteligenci je v tem, da ni skupnega soglasja o tem, kaj so. Čeprav je običajno domnevati, da obstaja nekakšno soglasje glede etičnih načel, je to soglasje redko širše od ene same kulture, poklica ali družbene skupine. To se kaže v lahkosti, s katero ohranjamo nepravičnost, krivico in celo nasilje ter smrt do drugih. Noben narod ni imun.

& # 8220 Težava pri uporabi etičnih načel pri umetni inteligenci je v tem, da ni skupnega dogovora o tem, kaj to so. Čeprav je običajno domnevati, da obstaja nekakšno soglasje glede etičnih načel, je to soglasje redko širše od ene same kulture, poklica ali družbene skupine. & # 8221

STEphen Downes, višji raziskovalec za digitalne tehnologije pri Nacionalnem raziskovalnem svetu Kanade,

»To še bolj otežuje dejstvo, da sodobna umetna inteligenca ne temelji na načelih ali pravilih. Sodobna umetna inteligenca temelji na uporabi matematičnih funkcij na velikih zbirkah podatkov. Ta vrsta obdelave ni enostavno oblikovana z etičnimi načeli, ne obstajajo "dobre" ali "zle" matematične funkcije, pristranskosti in predsodkov v podatkih pa ni enostavno prepoznati ali preprečiti. Medtem je uporaba umetne inteligence podrejena z izidom, isto napoved pa se lahko na primer uporabi za zagotavljanje socialne podpore in pomoči potrebnim ali za preprečevanje zaposlitve, zavarovanja ali finančnih storitev.

»Na koncu bo naša umetna inteligenca podaljšek nas samih, etika našega umetnega inteligenca pa bo razširitev naše lastne etike. V kolikor bomo lahko zgradili bolj etično družbo, karkoli že to pomenilo, bomo zgradili več etične umetne inteligence, četudi le tako, da bomo svoji umetni inteligenci zagotovili modele in primere, ki jih potrebuje, da bo lahko razlikoval pravilno od napačnega. Upam, da nas bo povečanje etičnih posledic naših dejanj privedlo do tega, da bomo do njih bolj pozorni. Bojim se, da ne bodo. "

Kenneth A. Grady, izredni profesor na Michigan State University College of Law in urednik The Algorithmic Society on Medium je dejal: "Če se bodo tisti, ki ustvarjajo umetno inteligenco, uporabili na" etičen “način, se soočajo s številnimi ovirami, ki jih družba v bližnji prihodnosti verjetno ne bo premagala. Urejanje etike umetne inteligence je na nekaj ključnih načinov podobno urejanju etike v celotni družbi. AI je porazdeljena in razmeroma poceni tehnologija. Z minimalnimi sredstvi lahko ustvarim in uporabljam umetno inteligenco v svojem podjetju, raziskovalnem laboratoriju ali svojem domu. Ta umetna inteligenca je lahko precej močna. Brezplačno ga lahko sprostim na svetu.

»Ob predpostavki, da bi jo lahko učinkovito regulirali, se soočamo z drugo veliko oviro: kaj mislimo z izrazom» etično? «Če odmislimo filozofske razprave, se pri določanju etične umetne inteligence soočamo s praktičnimi težavami. Za podobne izzive nam ni treba iskati daleč. V zadnjih nekaj letih se je razpravljalo o tem, kaj je ali ni etično vedenje v ameriški politiki. Tudi druge države so se soočale s podobnimi težavami.

»Tudi če bi se lahko v ZDA odločili za definicijo [za etiko], bi se verjetno razlikovala od opredelitev, ki se uporabljajo v drugih državah. Glede na sposobnost AI, da tekoče prečka meje, bi bilo urejanje AI težavno. Ugotovili bomo tudi, da so etične omejitve lahko v nasprotju z drugimi lastnimi interesi. Situacijska etika bi se zlahka pojavila, ko se soočimo z vojaškimi ali obveščevalnimi grožnjami, gospodarskimi grožnjami konkurence in celo političnimi grožnjami.

»Poleg tega AI sam predstavlja nekaj izzivov. Danes veliko tega, kar se dogaja v nekaterih sistemih umetne inteligence, ustvarjalcem sistemov ni znano. To je težava s črno skrinjico. Urejanje dogajanja v črni škatli je lahko težavno. Prepoved črnih skrinjic lahko ovira razvoj umetne inteligence in ogrozi naše gospodarske, vojaške ali politične interese. "

Ryan Sweeney, direktor analitike za Ignite Social Media, je komentiral: "Tu je pomembna opredelitev" javnega dobra ". Koliko sta naklep in izvršitev pomembna? Vzemimo na primer Facebook. Lahko bi trdili, da je njihova platforma za pregled vsebine AI v interesu "javnega dobrega", vendar še naprej propada. AI je le tako etičen in moder kot tisti, ki ga programirajo. Rasizem ene osebe je svoboda govora druge osebe. Kar je komu lahko žaljiva beseda, morda sploh ni v leksikonu programerja.

»Prepričan sem, da se bo umetna inteligenca uporabljala z etičnimi nameni, a etika zahteva empatijo. Da bi programirali etiko, mora obstajati dokončno pravilno in napačno, vendar situacije verjetno niso tako preproste in zahtevajo neko obliko čustvene in kontekstualne človeške analize. Uspeh etičnega izvajanja umetne inteligence je odvisen od tega, ali so programerji dobesedno razmišljali o vseh možnih scenarijih. Z drugimi besedami, umetna inteligenca se bo verjetno razvijala in uporabljala z etičnimi nameni, vendar verjetno ne bo dosegla tega, kar lahko kot ljudje počnemo. AI bi morali uporabljati kot orodje za pomoč pri vodenju naših odločitev, vendar se pri sprejemanju teh odločitev ne smemo popolnoma zanašati nanj. V nasprotnem primeru se bo pokazala priložnost za zlorabo ali neželene posledice. Prepričan sem tudi, da se bo umetna inteligenca uporabljala z vprašljivim namenom, saj tehnologija po sebi ni niti dobra niti slaba. Ker je tehnologija nevtralna, sem prepričan, da bomo videli primere zlorabe umetne inteligence zaradi sebičnih koristi ali drugih vprašljivih načinov in kršitev zasebnosti. Etični standardi so zapleteni pri oblikovanju in težko programirani. "

Težko se je strinjati, kaj predstavlja etično vedenje

Spodaj je vzorčenje strokovnih odgovorov, ki govorijo o široki zaskrbljenosti, da je etično vedenje težko opredeliti in še težje vgraditi v sisteme umetne inteligence.

Mark Lemley, direktorja univerzitetnega programa Stanford za pravo, znanost in tehnologijo ugotovil: "Ljudje bodo uporabljali umetno inteligenco tako za dobre kot za slabe namene. Večina podjetij bo skušala zasnovati tehnologijo za dobre odločitve, vendar je veliko teh odločitev težka moralna odločitev brez velikega odgovora. AI najbolj obeta nadomestitev zelo slabe človeške presoje pri stvareh, kot sta prepoznavanje obraza in policijska postanka. "

Marc Brenman, vodilni član pri IDARE, svetovalnem podjetju za svetovanje o transformacijskem usposabljanju in razvoju vodenja s sedežem v Washingtonu, je zapisal: »Kot družbe smo na splošno zelo šibki v moralnosti in etiki. Nobenega razloga ni, da bi mislili, da bodo naši stroji ali sistemi boljši od nas. Ljudje z napako ustvarjajo napačne sisteme. Na splošno inženirji ter IT-jevci in razvijalci nimajo pojma, kaj je etika. Kako bi lahko programirali sisteme, da bi imeli tisto, česar nimajo? Ko se bodo sistemi sami učili in razvijali, se bodo ozirali na družbo in ponavljali njene napake, pristranskosti, stereotipe in predsodke. To vidimo že pri prepoznavanju obraza.

»AI bo nekatere transakcije pospešil, na primer napovedal, kaj bom kupil prek spleta. Sistemi umetne inteligence lahko uidejo izpod nadzora, ko postanejo avtonomni. Kaj jim ljudje koristijo? Lahko dovolijo, da se napake naredijo zelo hitro, vendar sistemi morda ne bodo prepoznali posledic svojih dejanj kot „napake.“ Če na primer povečajo učinkovitost, lahko prevladuje kitajski primer socialnega nadzora.

»Ko se sistemi umetne inteligence seznanijo s sistemi kaznovanja ali kinetičnimi povratnimi informacijami, bodo lahko nadzorovali naše vedenje. Predstavljajte si pandemijo, pri kateri je narejeno "priporočilo", da se zavetite na mestu, si nadenete masko ali se držite šest metrov stran od drugih. Če so ljudje priključeni na sisteme umetne inteligence, lahko sistem povzroči električni šok osebi, ki priporočila ne izvaja. Tako bo, kot da vsi nosimo udarne ovratnice, ki jih nekateri uporabljamo na svojih psih, ki se slabo obnašajo. "

Junij Anne English-Lueck, profesor antropologije na državni univerzi San Jose in ugledni sodelavec na Inštitutu za prihodnost je dejal: »Sistemi umetne inteligence uporabljajo algoritme, ki so tako zvočni kot prostori, v katerih so zgrajeni, in natančnost podatkov, s katerimi se učijo. Človeški etični sistemi so zapleteni in protislovni. Takšne nianse, kot so dobre za koga in slabe za koga, je težko razčleniti. Pametna mesta, ki se opirajo na sisteme nadzora in avtomatizirane vlade, potrebujejo mehanizme človeškega nadzora. Nadzor v zadnjih nekaj desetletjih ni naša močna stran in malo je razlogov, da bi verjeli, da bo uveden v interakcijah človeka in avtomatizacije. "

Amali De Silva-Mitchell, futurist in svetovalec, ki sodeluje v globalnih procesih upravljanja interneta z več zainteresiranimi stranmi, je zapisal: »Čeprav je razprav veliko, je malo standardov ali pa obstajajo standardi, ki so na visoki ravni ali so prišli že prepozno za stotine že uveljavljenih aplikacij za umetno inteligenco. Teh osnovnih aplikacij za umetno inteligenco ne bomo znova izumili, zato obstaja vgrajeno tveganje. Bolj ko je razprav, večje je razumevanje obstoječih etičnih vprašanj in to se lahko vidi, zlasti če se spreminjajo družbene norme in pričakovanja. Aplikacije z umetno inteligenco lahko koristijo, vendar jih je treba upravljati tako, da ne povzročajo nenamerne škode. Za globalno dostavo in integrirane storitve morajo obstajati skupni standardi, preglednost in sodelovanje. Podvajanje prizadevanj je zapravljanje virov. "

Glenn Edens, profesor na šoli za globalni management Thunderbird na Arizonski državni univerzi, prej podpredsednik PARC, je opazil: hrano in zatočišče več ljudem z nižjimi stroški. Ker sem pravno slep, se na primer veselim dneva varnih in široko dostopnih samovozečih avtomobilov. Tako kot parni stroj, elektrika, kolesa in osebni računalniki (zlasti prenosniki) povečujejo človeško sposobnost umetne inteligence, ML pa upa, da bo storila enako.

"Skrbi: AI in njegov bratranec ML sta še vedno v povojih - in čeprav je tehnološki napredek nekoliko predvidljiv, so dejanske posledice za človeka nejasne. Obljuba je odlična - takšna je bila tudi naša naivna domišljija o tem, kaj bo internet naredil za človeštvo. Komercialni interesi (in s tem njihova uporaba AI in ML) so veliko bolj gibčni in prilagodljivi kot ljudje, ki jim domnevno služijo, ali sistemi upravljanja.Predpisi so večinoma reakcionarni, redko proaktivni - običajno se morajo zgoditi slabe stvari, preden se okviri za usmerjanje odgovornega in pravičnega vedenja vpišejo v zakone, pojavijo se standardi ali uporaba kodificira v sprejemljive norme. Odlično je, da se je pogovor že začel, vendar se v dolgočasnem svetu razvoja poslovne programske opreme nenehno razvija, kar je v veliki meri nevidno.

„Kreditno točkovanje mi pade na pamet kot glavno potencialno zaskrbljujoče podjetje - medtem ko kreditno-kreditna podjetja svoje delo vedno postavljajo tako, da potrošnikom omogočajo večji dostop do finančnih produktov, v resnici pa smo ustvarili sistem, ki nepravično kaznuje revne in dramatično omejuje pošten dostop do finančnih produktov po pravičnih cenah. Korporacije bodo uporabljale AI in ML za ocenjevanje vsega, kar počnejo, in za vsako transakcijo, ocenjevanje vsake stranke in njenega potenciala (vrednosti), napovedovanje povpraševanja, oblikovanje cen, ciljanje ter lastne zaposlene in partnerje - medtem ko to lahko vodi do učinkovitosti, produktivnosti in ustvarjanje ekonomske vrednosti, bo veliko tega privedlo do segmentiranja, ločevanja, diskriminacije, profiliranja in nepravičnosti. Predstavljajte si svet, v katerem so cene od trenutka do trenutka drugačne za vse, ti napovedni sistemi pa lahko v trenutku prenesejo ogromne zneske, zlasti od najbolj ranljivih. "

A strokovnjak za strategijo in načrtovanje odgovoril: "Čeprav rečem in verjamem, da bodo do leta 2030 za AI postavljene etične meje, se tudi zavedam, da bo to zelo težko. Razumevanje tega, kaj dela umetna inteligenca, ko gradi in prilagaja svoje razumevanje in pristope, hitro pride do točke, ko človeško znanje in sledenje ostane za seboj. Kako in zakaj je bilo nekaj storjeno ali priporočeno, je lahko neznan. Tudi življenje in razumevanje pravilnega in napačnega ali dobrega in slabega je lahko tekoče za ljudi, saj se stvari spreminjajo, da se prilagodijo vplivom na človeški obstoj in stanje ter na življenje na našem planetu. Določanje meja in omejitev ima močno vrednost, vendar je treba razumeti, kdaj se stvari premaknejo s področij, ki so udobna ali so uvedla novo spoznanje, da je treba popraviti neželene posledice. Toda pred določitvijo etičnih omejitev je treba razmisliti o mejah glede pristranskosti. "

A podpredsednik velikega svetovnega podjetja je zapisal: »AI je preveč porazdeljena tehnologija, da bi jo lahko učinkovito upravljali. Preprosto dostopen je vsakemu posamezniku, podjetju ali organizaciji z razmeroma skromnimi sredstvi. To pomeni, da bo v nasprotju, recimo z jedrskim ali bioorožjem, skoraj nemogoče vladati in vedno se bo našel nekdo, ki bo pripravljen razvijati tehnologijo ne glede na etične posledice. "

Wendy M. Grossman, znanstveni pisatelj iz Združenega kraljestva, avtor časopisa „net.vojne "in ustanovitelj revije The Skeptic napovedal:" Razporeditev tega bo neenakomerna. Pravkar sem prebrala del Jane Mayer v The New Yorker o obratih za pakiranje perutnine in je odličen primer, zakaj ni dovolj imeti zakoni in etika, ki jih morate uveljaviti ljudem, ki jih poskušate zaščititi, omogočite dovolj avtonomije, da lahko sodelujejo pri njihovem uveljavljanju. Mislim, da bo etična / neetična umetna inteligenca neenakomerno porazdeljena. Vse bo odvisno od tega, kaj bo sprejela družba, v katero se vnaša tehnologija, in kdo govori. Trenutno imamo dva različna primera:

  1. Aplikacije AI, katerih vpliv na življenje večine ljudi se zdi, da jim zavrnejo dostop do stvari - pogojna kazen v kazenskopravnem sistemu, blaginja v sistemu prejemkov, kredit v finančnem sistemu.
  2. AI sistemi, ki odgovarjajo na vprašanja in ponujajo pomoč (algoritmi priporočil, Siri, iskanje v Googlu itd.).

Ampak to, kar imamo danes, ni umetna inteligenca, kot si je prvotno predstavljala skupina Dartmouth. Še vedno smo zelo oddaljeni od kakršne koli umetne splošne inteligence s kakršno koli neodvisno avtonomijo. Sistemi, ki jih imamo, so glede na njihovo etičnost odvisni od dveh stvari: dostopa do podatkov, potrebnih za njihovo izgradnjo, in etike lastnika. Ni umetna inteligenca tista, ki potrebuje etiko, ampak lastniki.”

Glynn Rogers, upokojeni, prej glavni inženir in ustanovni član Centra za znanost o kompleksnih sistemih CSIRO, je dejal: „AI in njegovi nasledniki so potencialno tako močni, da nam ne preostane drugega, kot da skrbimo za etiko. Druga možnost bi bila, če bi nadzor nad svojim načinom življenja predali skupini razvijalcev in izvajalcev, ki so bodisi osredotočeni na kratkoročne in kratkovidne interese bodisi imajo neko obliko političnega programa, zlasti „državne akterje“. Veliko vprašanje je, kako da bi to zagotovili. Regulativni okvir je del odgovora, vendar mislim, da je glavna zahteva sprememba kulture industrije umetne inteligence. Namesto razvijanja tehnologij zgolj zaradi tega ali za objavo pametnih člankov mora obstajati kulturno okolje, v katerem razvijalci vidijo kot sestavni del svoje naloge, da preučijo potencialne socialne in ekonomske učinke svojih dejavnosti in okvir zaposlovanja ki tega ne poskuša zatreti. Mogoče bi morala biti moralna in politična filozofija del izobraževanja razvijalcev umetne inteligence. "

Alexandra Samuel, tehnološki pisatelj, raziskovalec, govornik in redni sodelavec časopisov Wall Street Journal in Harvard Business Review je zapisal: »Brez resnih, izvršljivih mednarodnih sporazumov o ustrezni uporabi in načelih za umetno inteligenco se soočamo s skoraj neizogibno dirko do dna. Poslovna vrednost umetne inteligence ni bistveno odvisna od etičnih načel, če lahko zaslužite več z umetnimi inteligencami, ki dajejo prednost uporabniku pred drugimi, ali če poslovne potrebe postavljajo pred končne uporabnike, potem bodo podjetja zgradila umetne inteligence, ki bodo povečale dobiček nad ljudmi. Edini možni način preprečevanja te poti je z nacionalnimi politikami, ki določajo ali prepovedujejo osnovna načela umetne inteligence, take vrste nacionalnih politik pa so možne le z mednarodnim sodelovanjem, sicer bodo vlade preveč zaskrbljene, da bodo podjetja svojih držav postavile v slabši položaj. "

Valerie Bock, VCB Consulting, nekdanji vodja tehničnih služb pri Q2 Learning, je komentiral: »Mislim, da pri ljudeh, ki oblikujejo umetno inteligenco, nismo razvili toliko filozofske prefinjenosti, da bi lahko pričakovali, da lahko v svojo programsko opremo vgradijo etično prefinjenost. Vedno znova se srečujemo z načini, kako se naše lastne nezavedne pristranskosti pojavljajo v naših stvaritvah. Izkazalo se je, da sebe ali svojih motivacij ne razumemo tako dobro, kot bi si želeli predstavljati, da bi lahko. Delo na področju umetne inteligence nam pomaga razkriti nekaj tega in nam pomaga pri iskanju [človeštva], ki si ga prizadevamo tisočletja. Malo ponižnosti, ki temelji na tem, kar se učimo, je v redu. «

& # 8220 Mislim, da pri ljudeh, ki oblikujejo umetno inteligenco, nismo razvili filozofske dovršenosti dovolj, da bi lahko pričakovali, da lahko v svojo programsko opremo vgradijo etično prefinjenost. & # 8221

Valerie Bock, VCB Consulting, nekdanja vodja tehničnih služb v Q2 Learning

The direktor vojaškega centra za strategijo in tehnologijo je dejal: "Večina umetne inteligence bo na neki ravni poskušala vključiti etična vprašanja. Ni jasno, kako je mogoče ustvariti "nepristransko" umetno inteligenco. Popolnoma nepristranski nabori podatkov o usposabljanju ne obstajajo in, ker so človeške pristranskosti sestavni del interakcij, tak cilj morda ni dosegljiv. Kot taki lahko v nekaterih naborih podatkov o usposabljanju opazimo spolne ali rasne pristranskosti, ki se bodo kljub našim prizadevanjem za boj proti temu razširile v operativne sisteme umetne inteligence. "

Alan S. Inouye, direktor Urada za politiko informacijske tehnologije pri Ameriškem knjižničarskem združenju je odgovoril: "Ne vidim ljudi ali organizacij, ki bi se udejanjali na neskladen način pri uporabi umetne inteligence. Seveda pa ga bodo uporabili za napredovanje svojih nalog in ciljev ter v nekem smislu uporabili "lokalno" etiko. Toda etika ni niti standardizirana niti aditivna za vsa področja. Kaj je etika v sistemih umetne inteligence? To je podobno vprašanju: "Kaj je kibernetska varnost v celotni družbi?"

Maggie Jackson, nekdanji kolumnist iz Bostonskega globusa in avtor knjige “Distracted: Reclaiming Our Focus in a World of Lost Attention,” je zapisal: “Globoko me skrbi, kako malo razumemo, kaj algoritmi umetne inteligence vedo ali kako jih poznajo. Ta učinek črne skrinjice je resničen in vodi do nenamernih učinkov. Najpomembneje pa je, da v odsotnosti pravega razumevanja predpostavke držijo kot temelj sedanjih in prihodnjih ciljev. Veliko več pozornosti bi bilo treba nameniti skritim in implicitnim sistemom vrednot, ki so neločljivo povezani z načrtovanjem in razvojem umetne inteligence v vseh oblikah. Primer: robotski skrbniki, pomočniki in mentorji se vse pogosteje uporabljajo pri oskrbi najbolj ranljivih članov družbe, kljub znanim pomislekom znanstvenikov-robotikov, etikov in uporabnikov, potencialnih in trenutnih. Zaskrbljujoče je, da je moralno dvomljiva fasada nege robotov vse bolj videti kot dovolj dober nadomestek za nerodno, a vzajemno oskrbo ljudi.

»Nove etične smernice za umetno inteligenco, ki poudarjajo preglednost, so dober prvi korak pri poskusu zagotoviti, da prejemniki oskrbe in drugi razumejo, s kom / s čim imajo opravka. Toda sistemi, ki temeljijo na dobičku, ošabnost izumiteljev, prirojena težnja ljudi, da se poskušajo povezati s kakršnimi koli predmeti, za katere se zdi, da imajo agent, in druge sile združujejo sile, da delujejo proti človeškemu skepticizmu, ki je potreben, če želimo ustvariti podporne robote, ki ohranjajo svoboda in dostojanstvo ljudi, ki so deležni njihove oskrbe. "

Alan D. Mutter, svetovalec in nekdanji izvršni direktor Silicijeve doline, je dejal: »AI je tako pameten in pozitiven kot ljudje, ki ga trenirajo. Za moralno in etično izvajanje umetne inteligence moramo porabiti toliko časa kot za strojno opremo, programsko opremo in poslovne modele. Nazadnje, ko sem preveril, v Silicijevi dolini ni bilo etičnega kodeksa. Potrebujemo boljši moralni barometer kot indeks NASDAQ. "

Fred Baker, Član upravnega odbora Konzorcija za internetne sisteme in dolgoletni vodja IETF je komentiral: »Rad bi, da bi bil umetni inteligenčni sistem mnogo bolj etičen kot je. Kljub temu se človeška narava ni spremenila in nameni, za katere se uporablja umetna inteligenca, se v osnovi niso spremenili. Morda se bomo o tem še pogovarjali, vendar mislim, da se etika umetne inteligence na koncu ne bo spremenila. "

Randall Mayes, tehnološki analitik pri TechCast Global opazil: »Standardizacija etike umetne inteligence me zadeva, ker imajo ameriške, evropske in kitajske vlade ter podjetja v Silicijevi dolini različne ideje o tem, kaj je etično. Način uporabe umetne inteligence bo odvisen od hierarhije vrednot vaše vlade med gospodarskim razvojem, mednarodno konkurenčnostjo in socialnimi vplivi. "

Jim Witte, direktorja Centra za družbene vede na Univerzi George Mason je odgovoril: "Vprašanje predpostavlja, da sta etika in morala statična sistema. Z razvojem umetne inteligence lahko pride tudi do razvoja teh sistemov, tako da se mora moralno in etično jutri zelo razlikovati od tistega, kar danes vidimo kot moralno in etično. "

Yves Mathieu, sourednik pri Missions Publiques s sedežem v Parizu v Franciji je zapisal: »Za etično umetno inteligenco bo potrebna zakonodaja, kot je evropska zakonodaja [GDPR], za zaščito pravic do zasebnosti na internetu. Nekatere vlade bodo sprejele ukrepe, vendar jih vse ne bodo, kot je danes v zvezi s proizvodnjo, trženjem in uporabo orožja. Nekatere korporacije morda imajo pobudo, vendar bo treba vključiti globalno proizvodno verigo umetne inteligence, kar bo izziv, če bo del proizvodnje prišel iz držav, ki niso zavezane istim etičnim načelom. Močne gospodarske sankcije proti neetični proizvodnji in uporabi umetne inteligence so lahko učinkovite. "

Amy Sample Ward, Generalni direktor NTEN: neprofitna tehnološka mreža je dejal: "Ni dvoma, ali bo umetna inteligenca uporabljena na vprašljive načine. Ljudje se ne strinjamo dosledno in kolektivno z zavezanostjo etičnim standardom katere koli tehnologije, zlasti ne z umetno inteligenco. Ustvarjanje standardov ni težko, vendar je odgovornost do njih zelo težka, zlasti ker vladni, vojaški in komercialni interesi redno najdejo načine za obvladovanje sistemov odgovornosti. Kateri sistemi bodo široko sprejeti za uveljavitev etičnih standardov in zaščite uporabnikov? Kako bodo uporabniki imeli moč nad svojimi podatki? Kako se bo vlagalo v izobraževanje uporabnikov za vse izdelke in storitve? Ta vprašanja bi nas morala voditi pri današnjem odločanju, tako da bomo imeli več upanja, da se bo umetna inteligenca uporabljala za izboljšanje ali izboljšanje življenja v prihodnjih letih. "

Dan McGarry, neodvisni novinar s sedežem v Vanuatuju, je dejal: "Tako kot vsak drugi algoritem, ki je bil kdaj uporabljen, bo tudi umetna inteligenca manifestacija človeške pristranskosti in perspektive njenega ustvarjalca. Facebook-ov algoritem za prepoznavanje obrazov deluje brez strahu, ko ga prosijo za prepoznavanje črnih obrazov. AI, programirani na bogatem Zahodu, bodo delili svoje prednosti in slabosti. Prav tako bodo umetni inteligenci, razviti drugje, delili predpostavke in okolje svojih ustvarjalcev. Ne bodo njihove podobe, temveč bodo njihovi izdelki in kot takšni bodo prepoznavni. "

Abigail De Kosnik, izredni profesor in direktor Centra za nove medije na Univerzi v Kaliforniji-Berkeley, je dejal: "V splošni javnosti, tehničnih delavcih ali študentih STEM ne vidim skoraj dovolj razumevanja o možnih nevarnostih umetne inteligence - načinov, kako AI lahko škoduje in propade družbi. Sem del valovanja vzgojiteljev, ki skušajo v naša navodila vključiti več etičnega usposabljanja in tečajev, in upam, da bo to spremenilo plima, vendar nisem optimističen glede naših možnosti. AI, ki je namenjena ustvarjanju prihodkov za korporacije, bo skoraj vedno delovala v nasprotju z interesi družbe. "

Irina Raicu, direktor programa za internetno etiko v Centru za uporabno etiko Markkula opazil: »Pogovor o etiki umetne inteligence poteka že nekaj let. Kar pa se zdi očitno med tistimi, ki so že nekaj časa del tega, se ni uvrstilo v učne načrte številnih univerz, ki usposabljajo naslednjo generacijo strokovnjakov za umetno inteligenco. Glede na to je videti, da bo trajalo več kot 10 let, da bo "večina sistemov umetne inteligence, ki jih organizacije vseh vrst uporabljajo za uporabo etičnih načel, osredotočenih predvsem na javno dobro." Tudi številne organizacije so preprosto osredotočene predvsem na druge cilje - ne na zaščiti ali spodbujanju javnega dobra. "

Pravnik in nekdanji dekan pravne fakultete, ki je specializiran za tehnološka vprašanja je zapisal: »AI je nov vznemirljiv prostor, vendar ni urejen in se bo vsaj v zgodnjih fazah spreminjal po usmerjanju naložbenih in denarnih vidikov. Dovolj je znano, da ni priznanih etičnih standardov in verjetno ne bo šele čez časovno obdobje, ki ga omenjate (2030). V tem času se bodo kopičili "najslabši možni scenariji", večji škandali glede njegove uporabe, naraščanje škodljive uporabe, ki bo kršilo zdrav razum in moralne in etične standarde skupnosti. Te priložnosti in situacije bodo vodile do postopnega in vedno večjega povpraševanja po predpisih, nadzoru in etičnih politikah glede uporabe in zlorabe. Toda kdo (ali kaj)? Kdo mora vsiliti te etične predpise - panoge same? Vlada?"

The direktor centra za javno politiko je odgovoril: „AI vidim na področju zdravja in izobraževanja pozitivno prihodnost. Vendar pa tudi tu obstajajo etični izzivi. Ali jih bo družba, ki dostopa do teh podatkov in jih hrani, odgovorno uporabljala? Kakšna bo vloga vlade? Morda lahko umetna inteligenca pomaga razvijajoči se vodi pri spopadanju s podnebnimi spremembami in vodnimi viri, toda ponovno vidim resnično tveganje na področjih pravične distribucije, pravičnosti in zaščite zasebnosti. "

Ljudje smo problem: čigava etika? Kdo odloča? Koga briga? Kdo izvršuje?

Številni strokovnjaki, ki jih skrbi prihodnost etične umetne inteligence, so sprožili vprašanja glede temeljne narave ljudi. Pogrešeni ljudje bodo nujno v teh težavah. Poleg tega so nekateri strokovnjaki trdili, da bodo morali ljudje ustvariti sisteme upravljanja, ki bodo nadzirali uporabo umetne inteligence in presojali, kako aplikacije vplivajo na družbe. Ti strokovnjaki so tudi trdili, da bodo vedno obstajali v osnovi neetični ljudje in organizacije, ki ne bodo sprejemali takšnih načel. Poleg tega so nekateri strokovnjaki omenili dejstvo, da lahko v svetovno mrežni dobi celo osamljeni volkovi povzročajo velike težave.

Leslie Daigle, dolgoletni vodja organizacij, ki gradijo internet in ga zagotavljajo varnega, je poudaril: »Moja največja skrb glede umetne inteligence in njene etične uporabe nima nič skupnega z umetno inteligenco kot tehnologijo in vsemi ljudmi. Nič v 21. stoletju me ne prepriča, da kot družba razumemo, da smo soodvisni in moramo razmišljati o nečem, kar presega naše neposredne interese. Ali imamo sploh skupen pogled na to, kaj je etično?

»Ko stopimo korak nazaj z roba obupa, bi stvari, za katere bi rad, da se AI uspešno uporablja, do leta 2030, vključevale stvari, kot so zdravstvene diagnoze (branje rentgenskih slik itd.) Napredek bi lahko bil monumentalen. Še vedno ne želim, da mi hladilnik naroča živila do leta 2030, a morda me to samo postara? :-) "

Tracey P. Lauriault, Profesor strokovnjak za kritične študije medijev in velike podatke na Univerzi Carleton v Ottawi v Kanadi je komentiral: "Avtomatizacija, umetna inteligenca in strojno učenje (ML), ki se uporabljajo pri upravljanju prometa kot pri spreminjanju luči za izboljšanje pretoka prometa ali za iskanje baz beljakovin v veliki biokemijski analitiki, ali da mi pomaga razvrstiti ideje o tem, katero oddajo naprej gledati, ali knjige, ki jih je treba brati naprej, ali narediti klasifikacijo satelitskih posnetkov na kopnem, ali celo doseči organsko in pošteno natančno kmetijstvo ali odkriti potresne dejavnost, taljenje polarnih ledenih kapic ali napovedovanje vprašanj z oceani niso tako problematični (in njegova uporaba, ne bo dobro, odkrivanje belih ovratnikov v fintech okolju ni problem).

»Če pa gre za sisteme za sprejem socialnega varstva, biometrično razvrščanje, napovedno policijo in nadzor meje itd., Potem gremo v povsem drugačen scenarij. Kako se bodo te urejale, preučevale in kdo bo odgovarjal za odločitve in ali bodo te odločitve glede nabave in uporabe teh tehnologij ali obveščevalnih podatkov, ki izhajajo iz njih?

»Odražale bodo naše sedanje oblike upravljanja, ki se zdijo precej pristranske in neenake. Če bomo lahko ustvarili bolj pravično družbo, bomo morda lahko imeli bolj pravičen AI / ML. "

Leiska Evanson, futurist in svetovalec, je zapisal: »Človeštvo ima pristranskost.Ljudje gradijo algoritme okoli strojnega učenja, ki se predstavljajo kot AI. „AI“ bo imel pristranskosti. Nemogoče je imeti etično umetno inteligenco (resnično ML), če je "starš" pristranski. Podjetja, kot so banke, nestrpno želijo uporabiti ML, da upravičijo, da ne dajejo posojil nekaterim manjšinam, ki zanje preprosto ne ustvarjajo dobička. Vlade želijo poskrbeti za potrebe mnogih pred redkimi. Trenutni koncepti umetne inteligence se nanašajo na posredovanje več podatkov elektromehanskemu birokratu na gumijasti pečat, brez nadzora ljudi s konkurenčnimi predsodki. "

Direktor standardov in strategij v velikem tehnološkem podjetju komentiral: "Verjamem, da so ljudje večinoma dobri in da bo namen ustvariti etično umetno inteligenco. Toda vprašanje, ki sem se ga zavedel, je dejstvo, da imamo vsi notranje pristranskosti, nenamerne pristranskosti, ki jih lahko razkrijemo na subtilen, a hkrati pomemben način. Upoštevajte, da sisteme umetne inteligence gradijo ljudje in tako sami po sebi delujejo glede na to, kako delajo ljudje, ki so jih zgradili. Tako so v teh sistemih prisotne te nenamerne pristranskosti. Tudi učni sistemi se bodo "učili" pristransko. Zanimivo raziskovalno vprašanje je torej, ali se učimo na način, ki premaga naše notranje pristranskosti. "

Jean Seaton, direktor Orwellove fundacije in profesor zgodovine medijev na univerzi v Westminsteru, je odgovoril: "Etično vprašanje postavlja tudi vprašanja, kdo bi takšne standarde oblikoval in nadzoroval na mednarodni ravni? Potrebujemo nekaj vizionarskih voditeljev in nekaj močnih gibanj. Zadnji velik 'etični' preskok je prišel po drugi svetovni vojni. Holokavst in druga svetovna vojna sta ustvarila vrsto institucij, ki so sčasoma privedle do pojma človekovih pravic. Ta kolektivna etična koračna sprememba (seveda ogrožena, a kljub temu neizmerno pomembna) je bila utelešena v institucijah z neko kolektivno avtoriteto. Torej, to se mora zgoditi z AI. Ljudje morajo biti dovolj prestrašeni, voditelji morajo biti dovolj modri, ljudje morajo biti dovolj sodelovalni, tehnološki ljudje morajo biti dovolj premišljeni, odgovornost je treba čutiti živo, osebno, v veliki večini - da se sprejmejo določena pravila in policijsko. "

Cliff Lynch, direktorja Koalicije za mrežne informacije, je zapisal: "Prizadevali si bomo za ustvarjanje večinoma" etičnih "aplikacij umetne inteligence do konca desetletja, vendar vas prosimo, da razumete, da je etična aplikacija umetne inteligence v resnici le programska oprema, ki je vgrajena v organizacijo, ki nekaj počne. etično breme nosi organizacija in ne programska oprema. Nekaj ​​očitnih izjem bo pri raziskavah, nekaterih vrstah nacionalne varnosti, vojaških in obveščevalnih aplikacijah, tržnem trgovanju in sistemih gospodarskega napovedovanja - številne od teh stvari delujejo pod različnimi vrstami "alternativnih etičnih norm", kot so "vojni zakoni" ali zakoni trga. In številna prizadevanja za sprostitev umetne inteligence (resnično strojno učenje) na področjih, kot sta fizika ali zlaganje beljakovin, ne spadajo v razpravo o "etični umetni inteligenci".

»Morali bi se upreti skušnjavi, da bi te sisteme antropomorfizirali. (Kot pravi stari pregovor: „stroji to sovražijo.“) Programu ne pripisujte agencije in svobode volje. ... Težave so ljudje in organizacije, ne koda! ... Veliko razprav o etični umetni inteligenci je res zgrešenih. Jasno je, da obstaja velika težava pri sistemih strojnega učenja in prepoznavanja vzorcev, na primer tistih, ki so usposobljeni za neprimerne, nepopolne ali pristranske podatke (ali podatke, ki odražajo zgodovinske družbene pristranskosti) ali kjer je področje uporabnosti in zaupanja klasifikatorjev oz. napovedniki niso dobro razmejeni in razumljeni. Obstaja še en velik problem, pri katerem se organizacije zanašajo na (pogosto nagnjene k neuspehu in nezanesljive ali usposobljene na pristranskih podatkih ali kako drugače problematično) algoritme za prepoznavanje vzorcev ali predvidevanje (spet običajno na osnovi strojnega učenja) in pri odločanju preveč teh. Nekatere nedavne katastrofe s prepoznavanjem obraza so tu dobri primeri. Obstajajo grozljive organizacijske in družbene prakse, ki se sklicujejo na računalniško ustvarjene odločitve, ki so pravilne, nepristranske, nepristranske ali pregledne in ki v tovrstno tehnologijo postavljajo neupravičeno vero in avtoriteto. Toda oblikovanje tega z vidika etike umetne inteligence namesto slabega človeškega odločanja, neumnosti, nevednosti, zaželenega razmišljanja, organizacijskih neuspehov in poskusov izogibanja odgovornosti se mi zdi napačno. Namesto tega bi morali govoriti o človeški in organizacijski etiki uporabe sistemov strojnega učenja in predvidevanja za različne namene.

»Mislim, da bomo v prihodnjem desetletju videli, kako bodo različni igralci uporabljali strojno učenje, prepoznavanje vzorcev in napovedovanje na resnično zle načine. Povezovanje tega s socialnimi mediji ali drugimi mehanizmi kulturne motivacije in nagrajevanja je še posebej strašljivo. Zgodnji primer bi lahko bil kitajski razvoj nagrad in sistema sledenja "socialnega kapitala". Tudi mene je strah ciljno usmerjenih sistemov propagande / oglaševanja / prepričevanja. Upam, da bomo tudi organizacije in vlade v vsaj nekaj primerih videli, da se teh sistemov ne bodo uporabljale ali pa jih bodo poskušale uporabljati zelo previdno in pametno ter jim ne bodo zaupale preveč odločanja.

»Tu je mogoče dobro izbirati in mislim, da se bodo nekateri. Zdi se, da je pristna etika umetne inteligence del razmišljanja o umetni inteligenci za splošno uporabo in mislim, da smo od tega zelo, zelo daleč, čeprav sem pri ljudeh, ki so morda bolje obveščeni, videl nekaj nasprotij. (Precej bolj teoretične in špekulativne) filozofske in raziskovalne razprave o superinteligenci in o tem, kako bi lahko oblikovali in razvili tako splošno namensko umetno inteligenco, ki se ne bo hitro odločil za iztrebljanje človeštva, so izjemno koristni, pomembni in veljavni, vendar imajo malo opraviti z retoričnimi kritikami socialne pravičnosti, ki algoritme zamenjujejo z organizacijami, ki jih neumno in neprimerno oblikujejo, urijo in vključujejo v današnji svet. "

Deirdre Williams, neodvisni raziskovalec, strokovnjak za globalno tehnološko politiko, je dejal: "Ne morem biti optimističen. Mi, "povprečni ljudje", smo se v preteklih letih šolali k sebičnosti, individualizmu, materializmu in izrednemu pomenu udobja. Te vrednosti ustvarjajo „etos“. V samem korenu umetne inteligence so baze podatkov, ki jih gradijo ljudje, ki se odločajo, katere podatke je treba zbirati in kako jih je treba opisati in kategorizirati. Drobna človeška napaka ali pristranskost na samem začetku lahko povzroči ogromno napako resnice in / ali pravičnosti. "

Alexa Raad, soustanovitelj in sovoditelj podcasta TechSequences in nekdanji direktor podjetja Farsight Security je dejal: »AI ima upanje glede aplikacij v zdravstvu, ki bodo pozitivno vplivale. Toda pravni / politični in regulativni okviri skoraj vedno zaostajajo za tehničnimi novostmi. Da bi se zaščitili pred negativnimi posledicami umetne inteligence, potrebujemo splošno sprejeto politiko upravljanja in zmanjševanja tveganja. Za večje dobro mora obstajati okolje globalnega sodelovanja. Čeprav je globalizacija privedla do številnih dosežkov, ki jih imamo danes (na primer oblikovanje in arhitektura interneta ter njegov model upravljanja z več deležniki), je globalizacija na udaru. Kar vidimo po vsem svetu, je trend k izolacionizmu, separatizmu, kar dokazujejo politična gibanja, kot so populizem, nacionalizem in rezultati, kot je brexit. Da bi prišli do in sprejeli celovit sklop smernic ali okvira za uporabo umetne inteligence ali zmanjšanje tveganja zaradi zlorabe umetne inteligence, bi potrebovali svetovni tok, ki podpira sodelovanje. Upam, da se motim, toda tovrstni trendi potrebujejo več kot 10 let, da tečejo po svoji poti in da se nihalo obrne v drugo smer. Takrat se bojim, da bodo nekatere slabosti in tveganja umetne inteligence že v igri. "

Andrea Romaoli Garcia, mednarodni pravnik, ki je dejavno sodeloval pri večstranskih dejavnostih Mednarodne zveze za telekomunikacije in internetno družbo, je dejal: »Etiko opredeljujem kot vse možne in razpoložljive odločitve, kjer vest ponuja najboljšo možnost. Vrednote in načela so omejevalci, ki vodijo vest k tej izbiri in nameni, zato je etika proces. V smislu etike za umetno inteligenco postopek odkrivanja dobrega in pravega pomeni izbiro med vsemi možnimi in razpoložljivimi aplikacijami, da najdemo tisto, ki najbolje ustreza namenom, osredotočenim na človeka, ob spoštovanju vseh načel in vrednot, ki omogočajo človeško življenje.

»Pristop k etiki, ki je osredotočen na človeka, je prvi opisal grški filozof Sokrat v svojem prizadevanju, da bi pozornost od zunanjega sveta usmeril na človeško stanje. AI je kognitivna tehnologija, ki omogoča večji napredek na zdravstvenem, gospodarskem, političnem in družbenem področju. Nemogoče je zanikati, kako algoritmi vplivajo na človeški razvoj. Tako etična umetna inteligenca zahteva, da vsi instrumenti in aplikacije postavljajo ljudi v središče. Kljub temu, da nekatere države gradijo etična načela za umetno inteligenco, primanjkuje kakršnega koli mednarodnega instrumenta, ki bi zajemal vsa področja, ki vodijo razvoj in uporabo umetne inteligence v človeško usmerjenem pristopu. AI ne temelji na modelih, temveč je na podatkovno usmerjen pristop za zelo razširljive nevronske mreže. Tako je treba podatke izbrati in razvrstiti s človeškim delovanjem. S tem človeškim delovanjem se sociokulturni dejavniki vtisnejo v vedenje algoritma in strojnega učenja. To upravičuje zaskrbljenost glede etike in se osredotoča tudi na vprašanja, kot so svoboda izražanja, zasebnost in nadzor, lastništvo podatkov in diskriminacija, manipulacija z informacijami in zaupanjem, okoljsko in globalno segrevanje, pa tudi na to, kako bo moč družbe vzpostavljena.

»To so dejavniki, ki določajo človekovo razumevanje in izkušnje. Vsi instrumenti, ki so izdelani za etično umetno inteligenco, imajo različne osnove, vrednote in namene, odvisno od področja, na katero se nanašajo. Pomanjkanje harmonije pri opredelitvi teh stebrov ogroža etiko umetne inteligence in vpliva na človekovo preživetje. Lahko bi prinesel nova nevidna sredstva izključevanja ali uporabil grožnje za socialni mir, ki bodo nevidne za človeške oči. Zato so potrebna skupna prizadevanja, ki bodo zbrala zainteresirane strani, civilno družbo, znanstvenike, vlade in medvladne organe, da bi si prizadevali za oblikovanje harmonične etične umetne inteligence, ki je osredotočena na človeka in velja za vse države. 2030 je čez 10 let. Ni nam treba čakati 10 let - zdaj lahko začnemo delati. Leto 2020 predstavlja več izzivov glede vpliva tehnologije na ljudi. Kršitve človekovih pravic so izpostavljene in vrednote so ogrožene. Ta scenarij bi moral pospešiti prizadevanja za mednarodno sodelovanje za vzpostavitev harmonične etične umetne inteligence, ki podpira človekovo preživetje in globalni razvoj. "

Olivier MJ Crépin-Leblond, podjetnik in dolgoletni udeleženec v dejavnostih ICANN in IGF, je dejal: "Najbolj me skrbi, da nekateri akterji nedemokratičnih režimov ne vidijo enake" norme ", ko gre za etiko. Te norme temeljijo na kulturnem in ideološkem ozadju in niso vse ideologije enake po vsem svetu. Jasno je, da danes nekatere nacionalne države vidijo umetno inteligenco kot drugo sredstvo osvajanja in vzpostavljanja njihove superiornosti namesto sredstva za dobro. "

Zaslužni profesor družbene znanosti dejal: »Algoritmi, ki predstavljajo etiko v umetni inteligenci, niso ne etični ne inteligentni. Gradimo računalniške modele družbenih predsodkov in strukturnega rasizma, seksizma, ageizma, ksenofobije in drugih oblik družbene neenakosti. To je uresničitev nekaterih najhujših Foucaultovih nočnih mor. "

Zagovornik in aktivist dejal: »Na večini dosedanjih velikih kongresov umetne inteligence so prevladovale oblastne elite status quo, katerih občutek tveganja, škode in grožnje je izkrivljen. Večinoma so ga sestavljali elitni belci s pretirano vero v tehnične rešitve in zaničevanjem sociokulturnih razsežnosti tveganja in rešitev. Te skupnosti - homogene, izkustveno omejene, preveč samozavestne - sestavljajo ljudje, ki se ne vidijo kot tveganje. Kot rezultat, verjamem, da bodo najbolj prevladujoči rezultati - kako je opredeljeno "etično", kako zaznano "sprejemljivo tveganje", kako bodo določene "optimalne rešitve" - ​​omejeni in skoraj zagotovo ohranjajo in povečujejo obstoječo škodo. Kot vidite, sem ves sončen in v veselju. "

Glenn Grossman, svetovalec za bančno analitiko pri FICO, je dejal: "Voditelji v vseh sektorjih morajo spoznati, da je umetna inteligenca le rast matematičnih modelov in uporaba teh tehnik. Danes imamo vzor upravljanja v večini organizacij. Vztrajati moramo na enakih zaščitnih ukrepih. Izziv je v tem, da številni voditelji podjetij ne znajo matematike! Ne morejo razumeti osnov napovedne analitike, modelov in podobno. Zato slišijo "umetno inteligenco" in o njem razmišljajo kot o neki novi, kul tehnologiji, "vse naredi". V bistvu je preprosto matematika. Človek upravlja, kako uporabljajo matematiko. Za spremljanje in umerjanje moramo uporabiti etične standarde. AI je orodje in ni rešitev za vse. Tako kot računalnik, ki je uvedel avtomatizacijo, lahko tudi AI avtomatizira na področju odločitev. Toda ljudje so tisti, ki te odločitve uporabljajo in oblikujejo sisteme. Zato moramo uporabiti etične standarde za kateri koli sistem, ki temelji na umetni inteligenci. "

R. "Ray" Wang, Glavni analitik, ustanovitelj in izvršni direktor podjetja Constellation Research s sedežem v Silicijevi dolini je dejal: »Trenutno teh načel ne moremo uveljaviti. Totalitarni, kitajski AI v obliki KPK je najprimernejši pristop za diktatorje. Vprašanje je: Ali lahko zahtevamo in lahko uveljavljamo etiko umetne inteligence? Vsekakor lahko zahtevamo, vendar je izvršba morda težka. "

& # 8220Vprašanje je: Ali lahko zahtevamo in lahko uveljavljamo etiko umetne inteligence? Vsekakor lahko zahtevamo, vendar je izvršba morda težka. "

R. & # 8220Ray & # 8221 Wang, analitik PriNCipal, ustanovitelj in izvršni direktor podjetja Constelation REsearch s sedežem v Silicijevi dolini

Maja Vujovic, svetovalec za digitalno in informacijsko in komunikacijsko tehnologijo pri Compass Communications je dejal: "Etična umetna inteligenca bi lahko postala splošno dogovorjeni standard, vendar je nemogoče uveljaviti. V svetu, kjer bo medijska vsebina in produkcija, vključno z lažnimi novicami, običajno ustvarjena z umetno inteligenco, je bolj verjetno, da bo treba naša pričakovanja glede etike znižati. Občinstvo bi lahko razvilo "debelejšo kožo" in postalo bolj strpno do splošne nezanesljivosti novic. Ta trend jih ne bo naredil bolj skeptične ali odmaknjene, temveč bolj aktivne in veliko bolj vključene v ustvarjanje novic na različne načine. Razvili se bodo certifikacijski mehanizmi in posebna orodja za umetno inteligenco, ki se bodo posebej spopadala z neetično umetno inteligenco, saj se bodo ljudje izkazali za preveč lahkoverne. V tistih sektorjih, kjer politika nima neposrednega interesa, kot so zdravje in medicina, promet, e-trgovina in zabava, bi lahko umetna inteligenca kot panoga dobila več manevrskega prostora za organsko rast, vključno s samoregulacijo. "

Kot vsa orodja se lahko tudi umetna inteligenca uporablja za dobro ali slabo, kar postavlja standarde pred izziv

Številni anketiranci so ugotovili, da je vsak poskus oblikovanja pravil zapleten zaradi dejstva, da je mogoče katero koli tehnologijo uporabiti za plemenitost in škodljive namene. Težko je oblikovati etična digitalna orodja, ki dajejo prednost prvim, hkrati pa zadržujejo druge pod nadzorom.

Chris Arkenberg, vodja raziskav v Deloittovem centru za tehnologijo, medije in telekomunikacije je dejal: »Odgovor je dober in slab. Tehnologija ne sprejema etičnih prioritet, ki si jih ljudje sami ne dajo prednostno. Torej, boljše vprašanje bi lahko bilo, ali bo družba imela bolj osrednjo vlogo etike in vrednot, kot smo jo videli v zadnjih 40 letih. Verjetno je leto 2020 pokazalo ponovno povpraševanje po vrednotah in načelih za uravnoteženo družbo. Če na primer izobraževanje postane pomembnejša naloga zahodnega sveta, lahko umetna inteligenca okrepi našo sposobnost učinkovitejšega učenja. Prav tako z rasnimi in spolnimi pristranskostmi. Toda ta trend je najmočnejši le v nekaterih zahodnih demokracijah.

»Kitajska na primer daje večjo vrednost družbeni stabilnosti in uživa dokaj enobarvno prebivalstvo. S trenutnimi trgovinskimi vojnami geopolitični razkol postaja tudi tehnološki razkol, ki bi lahko rodil povsem različne oblike umetne inteligence, odvisno od njihovega izvora. In zdaj je zelo multipolarni svet z obilico pooblaščenih igralcev.

„Torej, ta orodja dvignejo številne druge čolne s svojimi dnevnimi redi [ki] so morda manj zavezani zahodnimi liberalnimi pojmi etike in vrednot. Pragmatična predpostavka je lahko, da bodo prisotni številni primeri etične umetne inteligence, kjer predpisi, razvoj trga, privlačnost talentov in družbena pričakovanja od njih zahtevajo, da so takšni. Hkrati bo najbrž nešteto primerov "slabega umetnega inteligenca", orožnega strojnega obveščanja in učnih sistemov, namenjenih izkoriščanju slabosti. Tako kot internet in globalizacija tudi pri tej poti verjetno manj vodi usmerjanje tako zapletenih sistemov k utopičnim izidom in bolj pri prilagajanju temu, kako jih ljudje obvladujejo pod enakimi konkurenčnimi in skupnimi gonilnimi silami, ki so se udeležili celotne človeške zgodovine. "

Kenneth Cukier, višji urednik pri The Economistu in soavtor časopisa "Big Data" je dejal: "Le redki se bodo odločili uporabljati umetno inteligenco na slabe načine (čeprav nekateri kriminalci to zagotovo uporabljajo). Večina institucij bo uporabljala umetno inteligenco za učinkovito reševanje resničnih problemov in umetna inteligenca bo resnično delovala v ta namen. Če pa gre za prepoznavanje obraza, bo to pomenilo manj zasebnosti in tveganj, da bi bili nepravično izbrani. Če gre za ciljno oglaševanje, obstaja nevarnost izgube anonimnosti. V zdravstvenem varstvu sistem z umetno inteligenco lahko ugotovi, da nekateri ljudje potrebujejo več sevanja, da prodrejo skozi pigment v kožo, da dobijo jasnejšo zdravstveno podobo, če pa to pomeni, da so črnci izpostavljeni večjim odmerkom sevanja in so zato nagnjeni k negativnim stranskim učinkom , bodo ljudje verjeli, da gre za nepošteno pristranskost.

"Na področju svetovne ekonomije se bo oblikovala" neokolonialna "ali" imperialna "komercialna struktura, pri kateri bodo morale vse države postati stranke umetne inteligence ene od glavnih sil, Amerike, Kitajske in v manjši meri morda tudi Evrope."

Bruce Mehlman, futurist in svetovalec je odgovoril: "AI je močan in ima velik vpliv, vendar je le orodje, kot so smodnik, elektrika ali letalstvo. Dobri ljudje ga bodo uporabljali na dobre načine v korist človeštva. Slabi ljudje ga bodo uporabljali na podli način v škodo družbe.Človeška narava se ni spremenila in se z umetno inteligenco ne bo izboljšal ali poslabšal. To bo najboljša tehnologija in najslabša tehnologija. «

Ian Thomson, pionirski razvijalec pacifiškega centra znanja, je dejal: »Vedno bo tako, da bodo nove uporabe umetne inteligence postavile etična vprašanja, sčasoma pa bodo ta vprašanja obravnavana tako, da bo večina uporab etična. Dobra uporaba umetne inteligence bo vključevala poudarjanje trendov in razvoja, s katerimi nismo zadovoljni. Slaba uporaba bo okoli uporabe umetne inteligence za manipulacijo našega mnenja in vedenja za finančno korist tistih, ki so dovolj bogati, da razvijejo umetno inteligenco in v škodo tistih, ki so manj bogati. Navdušen sem nad tem, kako nam umetna inteligenca lahko pomaga pri boljših odločitvah, vendar sem previdna, da se lahko z njo tudi manipulira. "

A profesor mednarodnih zadev in ekonomije na univerzi v Washingtonu, DC je zapisal: »AI je ponavadi moten v svojem delovanju in vrstah rezultatov, ki jih doseže. Posledično ga je mogoče brez večjih praktičnih pregledov zlahka uporabiti za dobre in slabe cilje. AI, kot se trenutno izvaja, ponavadi zmanjšuje osebno zavzetost posameznikov in namesto tega ustvarja vzporednega agenta, ki predvideva in ustvarja potrebe v skladu s tem, kar drugi mislijo, da je prav. Posameznik, ki mu pomaga umetna inteligenca, bi moral biti sposoben popolnoma razumeti, kaj počne, in zlahka spremeniti svoje delovanje, da se bolje uskladi z lastnimi željami. Moji pomisleki so odpravljeni do te mere, da delovanje umetne inteligence in njene morebitne pristranskosti in / ali manipulacije ostajajo nejasne za uporabnika. Bojim se njegovega vpliva. To je seveda neodvisno od dodatne skrbi za zasebnost posameznika. Želim, da ima uporabnik nadzor nad tehnologijo, ne pa obratno. «

Kate Klonick, profesor prava na univerzi St. John's, katere raziskave se osredotočajo na pravo in tehnologijo, je dejal: "AI se bo uporabljal tako za dobre kot za slabe, kot večina novih tehnologij. AI ne vidim kot negativ negativnega slabega ali dobrega. Mislim, da je Net Net izboljšal življenje ljudi in bo še naprej, vendar je to vir množičnih prepirov v skupnostih, ki gradijo sisteme umetne inteligence, in skupnostih, ki preučujejo njihove učinke na družbo. "

Stephan G. Humer, profesor in direktor oddelka za internetno sociologijo na Univerzi za uporabne znanosti Fresenius v Berlinu napovedal: "Videli bomo dihotomijo: uradni sistemi ne bodo več zasnovani tako naivno in na tehnologijo usmerjeno, kot v prvih dneh digitalizacije, in etika bo pri tem igrala glavno vlogo. „Neuradne“ zasnove bodo seveda potekale brez kakršnih koli etičnih okvirjev, na primer na področju kriminala kot storitve. Najbolj me skrbi pomanjkanje znanja: Tisti, ki malo vedo o umetni inteligenci, se je bodo bali in celotna ideja o umetni inteligenci bo trpela. Spektakularni dogodki bodo predvsem v ZDA in na Kitajskem. Preostali svet za zdaj ne bo imel pomembne vloge. "

Anonimni anketiranec napisal: "To je odprto vprašanje. Black Lives Matter in druga gibanja za socialno pravičnost morajo "sramotiti" in prisiljena podjetja, usmerjena v dobiček, se poglobiti v same po sebi pristranske podatke in informacije, s katerimi hranijo sisteme umetne inteligence - robote in robote - in poskušati obdržati te pristranske načine razmišljanja. najmanj. Za zagotovitev, da sistemi umetne inteligence nimajo zadnje besede, bodo morali obstajati zavorni sistemi in ravnovesja, vključno z zaposlovanjem, napredovanjem in drugačnim nagrajevanjem ljudi. Skrbi me, da bodo sisteme umetne inteligence, kot je prepoznavanje obrazov, zlorabljale zlasti totalitarne vlade, policijske sile v vseh državah in celo prodajalne na drobno - glede tega, kdo je "najboljši" in "najbolj sumljiv" kupec, ki prihaja pred vrata. Skrbim, da bodo sistemi umetne inteligence ljudi uspavali, če se bodo odrekli pravicam do zasebnosti. Vidim pa tudi umetnike, igralce, filmske režiserje in druge kreativce, ki uporabljajo umetno inteligenco za izražanje vprašanj, s katerimi se mora soočiti naša država. Upam tudi, da bo umetna inteligenca nekako olajšala neenakosti v prometu, izobraževanju in zdravstvenem varstvu. "

Ilana Schoenfeld, strokovnjak za oblikovanje spletnih izobraževalnih sistemov in sistemov za izmenjavo znanja je dejal: »Prestrašen sem in hkrati navdušen nad možnostmi uporabe aplikacij AI v življenju vse več ljudi. AI se bo uporabljal tako na etičen kot na dvomljiv način, saj bodo vedno na obeh straneh enačbe poskušali najti načine za nadaljnje izvajanje svojih programov. Da bi zagotovili, da etična uporaba umetne inteligence prevlada nad njeno vprašljivo uporabo, moramo pravilno urediti svoje institucionalne zaščitne ukrepe - tako v smislu njihovih struktur kot izvrševanja s strani nepristranskih subjektov. "

A pionir v tvegani filantropiji komentiral: "Medtem ko bodo mnogi pri razvoju in uvajanju umetne inteligence / ML-ja etični, ne moremo prevzeti" dobrote ". Zakaj bo umetna inteligenca / ML drugačna kot:

  1. mobilni telefoni z omogočeno Al-Kaido,
  2. ISIS je izkoriščal družbena omrežja,
  3. Cambridge Analytica je vplivala na volitve,
  4. elementi tujih vlad, ki so sprožile napade na zavrnitev storitve ali zaposlovale digitalne plačance in še in še. V nasprotnem primeru se možnost zlorabe in zastrašujoče zlorabe samo stopnjuje, zato je potreba po globalnem etičnem dogovoru še toliko bolj bistvena. "

Greg Shatan, partner v skupini za intelektualno lastnino Moses & amp Singer LLC in član njene internetne in tehnološke prakse je zapisal: "Etična uporaba bo široko razširjena, a etično vprašljiva uporaba bo tam, kjer bi etičar najmanj želel: zatiralni državni ukrepi v nekaterih pridobivanje dobička, ki vodi k utrjevanju policijskih ekonomskih slojev itd. "

Nadaljnji razvoj umetne inteligence sam postavlja vprašanja in zaplete

Nekateri anketiranci so povedali, da porast umetne inteligence postavlja nova vprašanja o tem, kaj pomeni biti etičen. Številni od teh strokovnjakov so trdili, da je današnja umetna inteligenca nezahtevna v primerjavi s prihodnostjo. Nekateri naj bi pospeševanje od ozkega umetnega inteligenca do umetne splošne inteligence in morda do umetne superinteligence razvili ta orodja zunaj človeškega nadzora in razumevanja. Potem je tu še problem napačnih informacij in dezinformacij (na primer globokih ponaredkov) in tega, kako bi lahko ovirali etične sisteme.

David Barnhizer, zaslužni profesor prava in avtor knjige »Okužba z umetno inteligenco: ali lahko demokracija vzdrži neizbežno preobrazbo dela, Bogastvo in družbeni red? " zapisal: »Hitrost razvoja umetne inteligence se je pospešila in še naprej narašča. Pri razmisleku o popolnejšem razponu "dobrin" in "slabosti" umetne inteligence pomislite na posledice opozorila Masayoshi Son, da: "Roboti Supersmart bodo številčnejši od ljudi in več kot bilijon predmetov bo v treh desetletjih povezanih z internetom "Raziskovalci ustvarjajo sisteme, ki se vedno bolj učijo in uporabljajo svoje nove in razširjene sposobnosti za izboljšanje in razvoj. Sposobnost za to gre z neverjetno hitrostjo naprej. Lahko dosežejo odlične podvige, kot so vožnja avtomobilov in napovedovanje bolezni, nekateri njihovi ustvarjalci pa pravijo, da nimajo popolnega nadzora nad svojimi stvaritvami. Upoštevajte posledice sistema, ki lahko dostopa do vseh oblik znanja, jih hrani, manipulira, ocenjuje, integrira in uporablja. To lahko doseže ravni, ki presegajo tiste, ki so jih zmožni ljudje, da bi lahko na koncu postalo vsevedni in vseprisotni sistem.

"Je AI človeštvo" zadnji izum "? Nick Bostrom iz Oxforda predlaga, da bomo morda izgubili nadzor nad sistemi umetne inteligence prej, kot si mislimo. Trdi, da bi lahko naša vedno večja nezmožnost razumeti, kaj takšni sistemi počnejo, kaj se učijo in kako deluje "um umetne inteligence", ko se nadalje razvija, lahko nehote povzroči naše lastno uničenje. Naši izzivi so številni, četudi bi se morali spoprijeti le z razširitvijo zmogljivosti sistemov umetne inteligence, ki temeljijo na najboljši binarni tehnologiji. Neverjetna miniaturizacija in premik zmogljivosti, ki ga predstavljajo kvantni računalniki, ima veliko več kot binarni umetni inteligenc.

»Delo na tehnoloških prebojih, kot so kvantni računalniki, ki lahko delujejo s hitrostmi, ki za več zaporedjev presegajo tudi najhitrejše sedanje računalnike, je še vedno v razmeroma zgodnji fazi in bo potreben čas, da se razvije izven laboratorijskega okvira. Če so znanstveniki uspešni pri doseganju zanesljivega kvantnega računalniškega sistema, bo najboljši sistem exascale bledel glede na zmanjšano velikost in eksponentno razširjeno zmogljivost najnaprednejših obstoječih računalniških sistemov. To bo ustvarilo aplikacije in tehnologije za umetno inteligenco / robotiko, ki si jih zdaj lahko le predstavljamo. … Ko bodo kvantni računalniki popolnoma razviti, bodo imeli zmogljivosti za obdelavo in obdelavo podatkov, ki presegajo zmogljivosti trenutnih binarnih sistemov. Ko se to zgodi v komercializiranem kontekstu, napovedi o tem, kaj se bo zgodilo z ljudmi in njihovimi družbami, ne bodo več na voljo. "

Strokovnjak za regulacijo tveganj in vloge politike v znanosti in znanosti v politiki opazil: „Pri svojem delu uporabljam analizo stroškov in koristi. Gre za eleganten model, za katerega je splošno znano, da ignorira številne najpomembnejše vidike odločanja - kako na primer "ovrednotiti" nedenarne koristi. Dobri analitiki CBA so ponavadi skromni glede svojih tehnik, pri čemer ugotavljajo, da ponujajo a delno pogled na odločitvene strukture. Slišal sem, da preveč navdušencev nad umetno inteligenco govori o aplikacijah z umetno inteligenco brez ponižnosti. Knjiga Cathy O'Neil "Orožje za uničenje matematike" je bila popolnoma na tarči: če je ne morete prešteti, ne obstaja. O velikem problemu se pogosto razpravlja: preglednost algoritmov. Ena težava z umetno inteligenco je ta, da se sama spreminja. Skoraj zagotovo ne bomo vedeli, kaj se je algoritem naučil, sprejel, sprejel itd. Ta težava že obstaja, na primer pri uporabi umetne inteligence za odločanje o zaposlovanju. Dvomim, da se bo veliko obotavljanja lotilo umetne inteligence kot "nevtralnega, objektivnega, hitrega, poceni" načina, da se izognemo vsem tistim grdim zapletom človeškega tipa, kot so pravičnost, empatija itd. "

Neil Davies, soustanovitelj Predictable Network Solutions in pionir odbora, ki je nadziral prvotni razvoj omrežij v Združenem kraljestvu, je komentiral: „Strojno učenje (nočem ga imenovati umetna inteligenca, saj predpogojna inteligenca za takšne sisteme zagotovo ni umetna) je bistveno za preoblikovanje resnično vprašanje v numerični sistem vrednosti, pri čemer se obdelava (in odločitve) v celoti izvaja v tem numeričnem sistemu. Da bi imela takšna analiza etično razsežnost, mora obstajati sredstvo za oceno etičnega izida kot (funkcije iz) takega numeričnega vrednostnega prostora. Ne poznam nobenega takega dela. ...

»Obstaja netrivialna možnost več distopičnih izidov. Primer britanske vlade - vendar imajo tudi druge države primere o univerzalnih kreditih, Windrush-u, statusu EU, itd., So primeri postopka ocenjevanja na podlagi vrednosti, v katerem pojem zavarovanja pred nekaterimi etičnega okvira ni. Vidik globalne konkurence bo verjetno privedel do monopolnih tendenc glede "lastništva" informacij - večina teh bi danes veljala za skupno dobro. ...

"Previdnostna zgodba: V matematiki, ki podpira vse tovrstne modele (teorija kategorij), obstajajo pojma" nezvestoba "in" smeti ". Nezvestoba je neuspeh, da bi zajeli" resnični svet "dovolj dobro, da bi sploh lahko ustrezne vrednosti (in struktura vrednot) v ocenjevalnem modelu to vodi do „smeti noter, smeti ven.“ Po drugi strani pa so smeti stvari, ki v modelu obstajajo le kot artefakti. Takšne junk artefakte je pogosto težko prepoznati (če bi bili enostavno, bi bil model prilagojen, da zanika njihov obstoj) in so lahko privlačni za ustvarjalca modela (človeško inteligenco) in strojne algoritme, ko iščejo svoj cilj . Preveč teh sistemov bo ustvarilo negativno (in uničujočo) vrednost zaradi nezmožnosti prepoznavanja te temeljne omejitve zaradi neizpolnjevanja ustreznega (ali celo kakršnega koli) zagotovila o delovanju sistema in čistega ponižanja, ki ga vodi potreba po "donosnost naložbe" za taka prizadevanja. "

Sarita Schoenebeck, izredni profesor na šoli za informiranje na univerzi v Michiganu, je dejal: »AI se bo večinoma uporabljal na dvomljive načine in včasih sploh ne bo. Malo je dokazov, da bi raziskovalci lahko ugotovili ali se strinjali, kako izgleda etična umetna inteligenca, kaj šele, da bi jo lahko zgradili v desetletju. Etična umetna inteligenca bi morala zmanjšati škodo, popravljati krivice, se izogibati ponovni travmatizaciji in potrebam uporabnikov, ne pa tehnoloških ciljev. Etična umetna inteligenca se bo morala odmakniti od pojmov pravičnosti, ki spregledajo pojme, kot so škoda, krivica in travme. To zahteva uskladitev načel oblikovanja umetne inteligence, kot sta razširljivost in avtomatizacija, z vrednotami posameznika in skupnosti. "

Jeff Gulati, profesor političnih znanosti na univerzi Bentley je odgovoril: "Zdi se, da bi lahko več umetne inteligence in podatki, ki izhajajo, bili koristni za povečanje javne varnosti in nacionalne varnosti. V krizi se bomo bolj pripravljeni zanašati na te aplikacije in podatke. Ker se kriza umiri, je malo verjetno, da bodo strukture in prakse, zgrajene med krizo, izginile in verjetno ne bodo ostale nedejavne. Videl sem, da se uporablja v imenu preprečevanja in vodi v nadaljnjo erozijo zasebnosti in državljanskih svoboščin na splošno. In seveda bodo te aplikacije na voljo komercialnim organizacijam, ki nas bodo pobližje spoznale, da nam bodo lahko prodale več stvari, ki jih v resnici ne potrebujemo. "

Vodja mednarodne organizacije za digitalne pravice komentiral: "Zakaj bi umetno inteligenco uporabljali etično? Pregledati je treba samo stanje, da se ne uporablja etično. Veliko oblikovalcev politik AI sploh ne razume. Napovedno policijsko delo je modna beseda, večinoma pa kačje olje. Podjetja bodo delavce zamenjala s sistemi umetne inteligence, če bodo le lahko. Urijo pristranske biometrične sisteme. In v mnogih primerih niti ne vemo, kaj algoritem v resnici počne, borimo se za preglednost in razložljivost.

»Pričakujem, da je ta lastna nepreglednost tehnologij AI / ML značilna za podjetja (in vlade) - in ne kot napaka. Primer so globoke fake. Ali pričakujete etično uporabo? Ali ne razmišljamo o tem ravno zato, ker pričakujemo neetično, nenamerno uporabo v politiki, 'maščevalno pornografijo' itd.? V tehno-kapitalističnem gospodarstvu morate sistem ustvariti in konfigurirati, tudi če želite začeti spodbujati etično vedenje. In en osnovni del etike je razmišljanje o tem, komu bi lahko škodovala vaša dejanja, in morda celo spoštovanje njihove odločnosti pri odločitvah, ki so zanje usodne.

»Končno, seveda ima AI ogromno vojaških aplikacij, in ZDA razmišljajo o AI v sporu s Kitajsko. Zaradi tega se spet ne počutim dobro. Kitajska vodi ali poskuša voditi svet v družbenem in političnem nadzoru, zato spodbuja prepoznavanje obraza in biometrijo. Verjetno Kitajska poskuša storiti enako na vojaških ali obrambnih območjih, Pentagon pa menda tekmuje kot nor. Sploh ne vem, kako govoriti o etični umetni inteligenci v vojaškem kontekstu. "

Emmanuel Evans Ntekop opazili: „Brez izdelovalca je predmet neuporaben. Izdelovalec je programer in bog njegovih predmetov. Že od samega začetka je bila ideja podpirati ljudi kot avtomobili, kot suženj svojega gospoda. «

Nadzor nad umetno inteligenco je osredotočen na močna podjetja in vlade, ki jih vodijo motivi za dobiček in moč

Mnogi od teh strokovnjakov so izrazili zaskrbljenost, da sisteme umetne inteligence gradijo profitna podjetja in vlade, ki se osredotočajo na uporabo umetne inteligence za svoje namene. Nekateri pravijo, da vlade pasivno omogočajo korporacijske zlorabe umetne inteligence. Opazili so, da javnost ne more razumeti, kako so zgrajeni sistemi, ni obveščena o njihovem vplivu in ne more izzivati ​​podjetij, ki se poskušajo sklicevati na etiko v kontekstu odnosov z javnostmi, a etiki niso resnično zavezana. Nekateri strokovnjaki so povedali, da se bo besedna zveza "etična umetna inteligenca" uporabljala zgolj za oblikovanje oken za stike z javnostmi, da bi s tem preprečili nadzor nad vprašljivimi aplikacijami.

Številni od teh strokovnjakov so zaskrbljeni zaradi pomanjkanja preglednosti glede oblikovanja in usposabljanja izdelkov AI. Nekateri so ugotovili, da proizvajalci izdelkov programirajo umetno inteligenco z uporabo razpoložljivih podatkovnih nizov brez analize možnosti za vgrajeno pristranskost ali druge možne pomisleke glede kakovosti ali verodostojnosti.

Joseph Turow,profesor komunikologije na univerzi v Pensilvaniji, je zapisal: "Izrazi, kot so" preglednost, pravičnost in pravičnost, zasebnost, svoboda in človekova avtonomija, dobrotljivost in neprimernost, svoboda, zaupanje, trajnost in dostojanstvo ", imajo lahko veliko opredelitev, da lahko podjetja (in vlade ) lahko rečejo, da se zavzemajo za en ali drug izraz, vendar ga nato algoritmično izvajajo na načine, ki jih mnogi tujci ne bi zadovoljili. Kitajska vlada lahko na primer trdi, da njene tehnologije umetne inteligence vključujejo vrednote svobode, človekove avtonomije in dostojanstva. Skrbi me, da bodo podjetja opredelila "etično" na način, ki najbolje ustreza njihovim interesom, pogosto z nejasnimi predpisi, ki se dobro slišijo s stališča odnosov z javnostmi, vendar, ko so integrirani v kodo, omogočajo, da njihovi algoritmi delujejo na način, ki jim ne preprečuje ustvarjanja izdelki, ki "delujejo" v pragmatičnem smislu. "

Charlie Kaufman, varnostni arhitekt pri družbi Dell EMC je dejal: »Morda bodo etične smernice sistemom, ki temeljijo na umetni inteligenci, naložili pravni sistemi leta 2030, vendar bodo imele le majhen učinek - tako kot danes načela zasebnosti malo učinkujejo. Podjetja so motivirana, da maksimirajo dobiček in bodo našla načine, kako to narediti, drugim ciljem pa bodo dali le ustnice. Če bi bilo etično vedenje ali rezultate enostavno opredeliti ali izmeriti, bi jih družba morda lahko spodbudila. A ponavadi posledice nekega novega tehnološkega razvoja ne postanejo jasne, dokler se že ni preveč razširil, da bi ga obvladal.

& # 8220 Morda bodo leta 2030 pravni sistemi sistemom, ki temeljijo na umetni inteligenci, naložili etične smernice, vendar bodo imele le majhen učinek & # 8212, tako kot danes načela zasebnosti malo učinkujejo. Podjetja so motivirana za maksimiranje dobička in bodo našla načine za to, pri čemer bodo drugim ciljem zagotovila samo ustnice. & # 8221

Charlie Kaufman, varnostni arhitekt pri družbi Dell EMC

»Največji učinek sistemov, ki temeljijo na umetni inteligenci, je zmožnost avtomatizacije vedno bolj zapletenih delovnih mest, kar bo povzročilo dislokacije na trgu dela in v družbi. Ali se izkaže, da je korist za družbo ali katastrofa, je odvisno od tega, kako se družba odzove in prilagodi. A vseeno, saj tehnologije nikakor ne moremo zatreti.Najbolje, kar lahko naredimo, je ugotoviti, kako optimizirati družbo, ki ima rezultat.

»Ne skrbi me svetovna konkurenca v sistemih umetne inteligence. Ne glede na to, od kod prihaja napredek, bo vplival na vse nas. In malo verjetno je, da bodo najuspešnejši razvijalci imeli trajno prednost. Najpomembnejša posledica svetovne konkurence je, da je nesmiselno, da katera koli država ali skupina držav poskuša zatirati tehnologijo. Če tega ni mogoče povsod zatreti, prihaja. Poskusimo, da bo to dobro! "

Simeon Yates,profesor strokovnjak za digitalno kulturo in osebno interakcijo na Univerzi v Liverpoolu in vodja raziskave za britansko vladno skupino za digitalno kulturo je napovedal: „Dokler v IKT ne bomo vključili načel„ etične zasnove “(odgovorne inovacije) komunikacijske tehnologije] in oblikovanje umetne inteligence / strojnega učenja - na primer poskusi oblikovanja sistemov "varnega načrtovanja" za boj proti kibernetski kriminaliteti - bo večina sistemov umetne inteligence načeloma pristranska in neetična. Čeprav obstaja velika javna razprava o etiki umetne inteligence in si številne organizacije prizadevajo svetovati in raziskati to temo, ni nobene ekonomske ali politične potrebe, da bi sistemi umetne inteligence postali etični. Prvič, z manipulacijo s podatki in s tem ljudmi je velik dobiček. Drugič, vlade so trenutno omejene, da lahko premišljujejo, kako uravnavati umetno inteligenco in uveljavljati etiko (kot pravijo pri bioloških vedah). Tretjič, vlade so pogosto vpletene v slabo in etično vprašljivo uporabo podatkov. Poleg tega to ni v glavni "umetni inteligenci" - ampak razmeroma poenostavljenem statističnem strojnem učenju, ki temelji na pristranskih naborih podatkov. Znana uporaba takega je že sama po sebi neetična, a pogosto donosna. Predstavitev takšnih rešitev, kot so pristranskost ali bolj racionalne ali pogosto "pametnejše", saj temeljijo na "hladnem računanju" in ne na "čustvenem človeškem razmišljanju", je sama po sebi napačna in neetična trditev. "

Colin Allen,kognitivni znanstvenik in filozof, ki je preučeval in pisal o etiki umetne inteligence, je zapisal: »Etične izjave podjetij in vlad so pogosto široke in nespecifične ter zato nejasne glede tega, kaj konkretno ni dovoljeno. To omogoča precejšen manevrski prostor pri izvajanju takšnih načel in otežuje izvrševanje. V ZDA ne vidim, da bi bili v desetih letih sprejeti močni zakoni, ki bi omogočali takšen nadzor, ki bi preprečil neetično ali dvomljivo uporabo umetne inteligence, nameravano ali naključno. Na upanju se povečuje zavedanje javnosti in novinarsko poročanje o teh vprašanjih, kar lahko vpliva na korporacije, da gradijo in zaščitijo svoj ugled za dobro skrbništvo nad umetno inteligenco. Toda korporacije imajo dolgo zgodovino skrivanja ali zamegljevanja svojih resničnih namenov (deloma je potrebno, da ostanejo konkurenčni, ne da bi vsi ostali vedeli, kaj počnete), pa tudi aktivno sodelujejo v javnih kampanjah za dezinformacije. Ne vidim, da bi se to spreminjalo in glede na to, da bodo poslovne prednosti uporabe umetne inteligence predvsem v analitiki podatkov in napovedovanju in ne toliko v potrošniških pripomočkih v naslednjih 10 letih, bo večina uporabe umetne inteligence "za tako rekoč prizorov. Druga težava je v tem, da bodo posamezniki na podjetjih in v državnih službah, ki imajo dostop do podatkov, v skušnjavi, kot smo že videli, dostopati do informacij o ljudeh, ki jih poznajo, in jih na nek način uporabljati proti njim. Kljub temu bo nedvomno nekaj zelo uporabnih izdelkov, ki jih bodo potrošniki želeli uporabljati in jim bodo koristili. Vprašanje je, ali bodo te dodatne ugodnosti predstavljale faustovsko kupčijo in vodile po poti, ki jo bo težko, če ne celo nemogoče, obrniti. "

Alice E. Marwick, docent za komunikologijo na Univerzi v Severni Karolini, Chapel Hill, in svetovalec za projekt medijske manipulacije na raziskovalnem inštitutu Data & amp Society, je komentiral: "Ne verjamem v naš sedanji vladni sistem, da bi sprejel kakršno koli zakonodajo, ki obravnava s tehnologijo na kompleksen ali niansiran način. Ne moremo se zanašati na to, da se tehnološka podjetja samoregulirajo, saj obstaja preveč finančnih spodbud za uporabo sistemov umetne inteligence, ki prikrajšajo ljudi ali so neetični. "

Jillian York, direktorja za mednarodno svobodo izražanja pri Fundaciji Electronic Frontier, je dejal: „Ni dvoma, da se bo umetna inteligenca uporabljala na vprašljive načine. Regulativnega režima ni in številni projekti "etike v umetni inteligenci" so preprosto oblikovanje oken za neutemeljeno in neetično industrijo. Ko gre za AI, me vse zadeva in nič me ne navdušuje. Ne vidim pozitivnega potenciala, le še eno etično močvirje, ker ljudje, ki vodijo oddajo, nimajo želje graditi tehnologije, ki bi koristila 99%. "

David Mussington, višji sodelavec v CIGI in profesor ter direktor Centra za javno politiko in zasebna podjetja na Univerzi v Marylandu, je napovedal: »Večina sistemov umetne inteligence, uvedenih do leta 2030, bo v lasti in razvoju v zasebnem sektorju tako v ZDA kot drugod po svet. Ne morem si zamisliti zakonodajnega okvira, ki bi v celoti razumel in selektivno posredoval pri uvajanju umetne inteligence na način s predvidljivimi posledicami. Tudi način posredovanja - ker mislim, da se bodo poskušale posredovati javne oblasti (le ne uspešen) - je sam po sebi dvomljiv. Ključna vprašanja: Ali javni organi razumejo umetno inteligenco in njene aplikacije? Ali bodo raziskave in razvoj na področju umetne inteligence, ki jih financirajo javne ustanove, verjetno obvestili vlado in javne raziskovalne agencije o obsegu in usmerjenosti raziskav in razvoja umetnega inteligenca v zasebnem sektorju? Ker nabori orodij za razvoj umetne inteligence še naprej opolnomočujejo majhne raziskovalne skupine in posameznike (nabori podatkov, okviri za razvoj programske opreme in odprtokodni algoritmi), kako bo vlada nadaljevala - kaj šele ohranjala zavest - o napredku na področju umetne inteligence? Ali ima vlada dostop do strokovnega znanja, ki je potrebno za oblikovanje dobre politike - in predvideva možne dejavnike tveganja? Mislim, da so odgovori na večino teh vprašanj negativni. "

Giacomo Mazzone, Vodja institucionalnih odnosov za Evropsko radiodifuzno zvezo in Evrovizijo je opazil: "Nihče ni mogel realno napovedati, da se bo etika razvijala, kljub vsem prizadevanjem generalnega sekretarja OZN, generalnega direktorja Unesca in mnogih drugih. Posamezniki sami ne morejo sprejeti teh odločitev, ker se umetna inteligenca uporablja množično. Nihče ne bo ustvaril algoritma za njegovo rešitev. Etična načela se bodo verjetno uporabljala le, če se bo industrija strinjala, da se to ne bo zgodilo, dokler vlade, ki cenijo človekove pravice, k temu ne bodo zavezale podjetij. Velikost in vpliv podjetij, ki nadzorujejo umetno inteligenco, in njihov vpliv na državljane so zaradi njih močnejši od katere koli nacionalne države. Torej je zelo verjetno, da lahko le regionalne nadnacionalne sile, kot je Evropska unija, ali večstranske institucije, kot so Združeni narodi, - če jih pooblastijo vse nacionalne države - od podjetij zahtevajo, da uporabljajo etična pravila za umetno inteligenco. Seveda številne vlade že ne podpirajo načel človekovih pravic, saj meni, da je ohranitev obstoječega režima pomembnejša od pravic posameznih državljanov. "

Rob Frieden, profesor telekomunikacijskega prava v zvezni državi Penn State, ki je pred tem sodeloval z Motorolo in je bil na visokih položajih v FCC in NTIA, je dejal: zaščita potrošnikov. Nadzor, diskriminacija, rezanje vogalov itd. So gotovost. Upoštevam pregovor: smeti noter, smeti ven. Neumno je misliti, da AI ne bo imel pomanjkljivega kodiranja. "

Alex Halavais, izredni profesor za študije kritičnih podatkov na Arizonski državni univerzi je dejal: "To ni binarno vprašanje. Poučujem v podiplomskem programu, katerega jedro je usposabljanje za etično uporabo podatkov in upam, da bom služil organizacijam, ki želijo vključiti etične pristope. Pri izvajanju katerega koli algoritemskega sistema obstajajo pomembna etična vprašanja in taki sistemi imajo kodirana etična vprašanja, ki jih obravnavajo. V večini primerov bodo to bolj naklonjeno lastnikom tehnologij, ki jih uporabljajo, ne pa potrošnikom. Ne dvomim, da bodo sedanje neetične prakse podjetij, vlad in drugih organizacij še naprej rasle. Vedno bolj bomo imeli primere, ko bodo ti etični pomisleki v ospredju (tako kot pred kratkim pri prepoznavanju obraza), a če ne bodo dosegli stopnje zelo razširjene zlorabe, je malo verjetno, da bodo urejeni. Posledično bodo še naprej služili tistim, ki tehnologije plačujejo ali so v njihovi lasti, pravice in interesi posameznih uporabnikov pa bodo potisnjeni na stranski tir. To ne pomeni, da bo etika prezrta. Pričakujem, da se bodo številna velika tehnološka podjetja potrudila, da bodo najela poklicne etike, da bodo revidirala njihovo delo, in da bomo morda videli podjetja, ki se bodo razlikovala z bolj etičnimi pristopi k svojemu delu. "

Ebenezer Baldwin Bowles, zagovornik / aktivist, je komentiral: „Altruizem oblikovalcev umetne inteligence je mit propagande podjetij. Etični vmesniki med umetno inteligenco in državljani bodo leta 2030 ciničen izraz oblikovalcev digitalne Potemkinove vasi - od zunaj je videti dobro, a za fasado popolnoma prazen. AI bo deloval v skladu z dvema motivacijama: ena, da bo zbirala vse več osebnih podatkov za namene subliminalnih in neposrednih oglaševalskih in trženjskih kampanj, in druga, da bo uporabila velike podatke za izkoreninjenje radikalnega mišljenja in izvajanje skoraj popolnega nadzora nad državljanstvom. Država je prek umetne inteligence pripravljena utišati vse glasove zaznanega nestrinjanja.

»Prepričan sem, da bo vsak izraz etične umetne inteligence prazna obljuba - ja, vedno bomo naredili pravo stvar za napredek v večje dobro. Ni šans. Ustvarjalci umetne inteligence bodo storili tisto, kar je dobro za dno, bodisi s finančnimi shemami za hranjenje korporativne zveri bodisi s psihološkimi operacijami, usmerjenimi v nadzor nad nesoglasji in umirjanjem. Kar zadeva koncept, da bodo "ljudje v zanki", smo že zunaj zanke, ker zanke ni. Pomislite na to dejstvo: pri razvoju katerega koli večjega izraza umetne inteligence je na stotine IT-strokovnjakov dodeljenih legiji različnih, ločenih skupin piscev programske opreme in oblikovalcev strojev, da ustvarijo končni izdelek. Noben posameznik ali ekipa v celoti ne razume, kaj počnejo druge ekipe. Končni izdelek AI je edinstveno bitje, ki ga nihče ne razume - razen programske opreme same. Etično ravnanje ni del enačbe. "

Richard Lachmann, profesor politične sociologije na državni univerzi v New Yorku-Albanyju napovedal: »AI se bo uporabljal predvsem na vprašljive načine. Večinoma ga razvijajo korporacije, ki jih motivira izključno želja po vedno večjem dobičku. Vlade vidijo umetno inteligenco, ki so jo razvili vladni programerji ali pogodbe korporacij, kot sredstvo za raziskovanje in nadzor njihovega prebivalstva. Vse to je zlovešče. Globalna konkurenca je tek na dnu, saj poskušajo korporacije pritegniti večje občinstvo in nadzorovati več svojega časa in vedenja. Ko vlade postajajo boljše pri raziskovanju svojega prebivalstva, [to] znižuje standarde zasebnosti posameznikov. Skoraj vsem ljudem bodo te aplikacije omogočile, da bodo njihova življenja bolj osamljena, izpostavljena manipulacijam in degradirala ali uničila njihova delovna mesta. Edino upanje je povečanje zavedanja o teh težavah in začetki zahtev po razpadu ali ureditvi velikih korporacij. "

Kevin T. Leicht, profesor in predstojnik oddelka za sociologijo na Univerzi v Illinoisu-Urbana-Champaign je opazil: „Tukaj je dobrih možnosti neskončno. Toda vprašljivih načinov je neskončno in imamo zelo slabe rezultate, kako ustaviti etično vprašljiv razvoj na večini življenjskih področij - zakaj to ne bi veljalo tukaj? V družboslovju je najboljši napovednik prihodnjega vedenja preteklo vedenje. Zasvojenec z opijem, ki po pijanci reče, da "imajo to" - ni jim treba začeti zdravljenja in opija ne bodo nikoli več uporabili, (upravičeno) ne verjame. Torej, v okolju, kjer je bilo etično dvomljivo vedenje dovoljeno ali celo poveličano na področjih, kot so finance, upravljanje podjetij, vlada sama, farmacija, izobraževanje in redarstvo, zakaj naj bi naenkrat verjeli, da se bodo razvijalci umetne inteligence etična moda? Tu ni nobenih varoval, tako kot jih ni bilo v teh drugih sferah življenja. AI lahko spremeni način dela mest, kako se dogaja medicinska diagnoza, kako poučujejo študente in številne druge stvari. Vse to bi lahko pomembno spremenilo življenje večine ljudi.

& # 8220Dobrih možnosti tukaj je neskončno. Toda vprašljivih načinov je neskončno in imamo zelo slabe rezultate, kako ustaviti etično vprašljiv razvoj na večini življenjskih področij - zakaj to ne bi veljalo tukaj? & # 8221

Kevin T. Leicht, profesor in predstojnik oddelka za sociologijo na Univerzi v Ilinoisu-urbana-champaign

»A do teh ugodnosti ne bo prišlo, če AI nadzorujejo dve ali tri velika podjetja s 26-letnimi podjetniki kot glavnimi direktorji. Mislim, da tega ne govorim na ud. Največja skrb, ki jo imam v zvezi s svetovno konkurenco, je, da bo država, ki bo ugotovila, kako izkoristiti umetno inteligenco za izboljšanje življenja vseh svojih državljanov, na prvem mestu. Države, ki tega nočejo storiti, ali pa izkoristijo prednosti umetne inteligence, tako da jo koristi le 15–20% prebivalstva, ali države, kjer veliki deli prebivalstva zavrnejo umetno inteligenco, ko ugotovijo, da so zaostali (spet !) bo popolnoma izgubil. Združene države so v slednji kategoriji. Isti ljudje, ki ne morejo regulirati bank, financ, izobraževanja, farmacevtskih izdelkov in policije, so v zelo slabem položaju, da bi umetna inteligenca delovala za vse ljudi. To je osnovni institucionalni družboslovni vpogled. "

Christine Boese, svetovalec in neodvisen učenjak je zapisal: "Največ upanja mi daje, da lahko z združevanjem etične umetne inteligence s prozornim uporabniškim znanjem najdemo načine za odkrivanje pristranskosti dojemanja, ki se programirajo v črne škatle, najpogosteje, ne zlonamerno, ampak samo zato, ker je vsako zaznavanje omejeno in pristransko in del zakonov nenamernih posledic. Toda, ko sem konec devetdesetih ugotovil, kaj želim raziskati o prihodnosti interneta, v celoti pričakujem, da bodo moja aktivistična raziskovalna prizadevanja na tem področju v veliki meri zaman, edina trajna vrednost pa je opisnost. Nihče od nas nima agencije, ki bi lahko poganjala ta avtobus, kljub temu pa avtobus vsi skupaj vozimo. "

Mireille Hildebrandt, strokovnjak za kulturno antropologijo in pravo ter urednik časopisa "Pravo, človeška agencija in avtonomno računalništvo" je komentiral: "Glede na ekonomske spodbude ne smemo pričakovati" etične umetne inteligence ", razen če tisto, za kar menimo, da je etično, ne sovpada z vrednostjo delničarjev. Etična umetna inteligenca je napačno poimenovana. AI ni moralni dejavnik, ne more biti etičen. Zavzemimo se za odgovorno umetno inteligenco in utemeljimo odgovornost:

  1. razvijalci
  2. proizvajalci in monterji
  3. tisti, ki ga dajo na trg
  4. tisti, ki jo uporabljajo, vodijo svoje poslovanje
  5. tisti, ki ga uporabljajo za vodenje javne uprave glede izvršljivih zakonskih pravic in obveznosti
  6. zlasti pravilno preoblikovana odgovornost zasebnega prava, skupaj z javnopravnimi omejitvami, certificiranjem in nadzorom.

»Etična umetna inteligenca je PR. "Ne sprašujte, ali je umetna inteligenca dobra ali poštena, vprašajte, kako preusmeri moč" - (Pratyusha Kalluri, Nature, 7. julij 2020). "

Brian Harvey, zaslužni profesor računalništva na univerzi v Kaliforniji-Berkeley, je zapisal: »Tehnologija umetne inteligence bo v lasti bogatih, tako kot vsa tehnologija. Tako kot vlade ima tehnologija tudi enega od dveh učinkov: bodisi prenaša bogastvo z bogatih na revne bodisi prenaša bogastvo z revnih na bogate. Dokler se ne znebimo kapitalizma, bo tehnologija prenašala bogastvo z revnih na bogate. Prepričan sem, da se bo nekaj, kar imenujemo "etična umetna inteligenca", pogosto uporabljalo. Toda bogati bodo še vedno bogatejši in revni revni. "

Luis Germán Rodríguez, profesor in strokovnjak za družbeno-tehnične vplive inovacij na univerzi Central de Venezuela, je napovedal: »AI se bo v naslednjem desetletju uporabljal predvsem na dvomljive načine. Ne vidim prepričljivih razlogov, da bi srednjeročno (10 let) prenehal biti takšen. Nisem optimističen ob velikem zagonu tehnoloških podjetij, da še naprej izkoriščajo izdelke končnega uporabnika, pristop, ki ga nedemokratične vlade ali tiste s šibkimi institucijami trdno podpirajo pri usposabljanju in obrambi državljanov o socialnih posledicah prodor digitalnih platform.

»Pred kratkim sem delal na dveh člankih, ki razvijata teme tega vprašanja. Prva je v španščini in ima naslov: „Motnja tehnoloških velikanov - digitalna nujnost.“ To delo predstavlja oceno sociokulturnega procesa, ki vpliva na naše družbe in ki je posredovan s prisotnostjo tehnoloških velikanov. Eden od ciljev je oblikovanje akcijskega predloga, ki državljanom omogoča, da sodelujejo pri gradnji prihodnosti ... Človeštvo se je spopadalo s hudimi težavami, ko je omogočilo, da so se dogodki odvijali, ne da bi jih nagovorili zgodaj. To velja za upravljanje jedrske energije, rasizem in podnebne spremembe. Dogovarjanje o izogibanju večjemu zlu v teh treh zadevah, ki so življenjskega pomena za vse, se je izkazalo za neučinkovito pri prinašanju miru vesti in ljudstvom.

»Morda bomo razglasili digitalno izredne razmere, podobne" podnebnim izrednim razmeram ", ki jih je Evropska unija razglasila pred zamikom pri odpravi okoljske škode. Nacionalne, regionalne, mednarodne, večstranske in globalne birokratske organizacije, ki se trenutno ukvarjajo s spodbujanjem in izenačevanjem tehnološkega razvoja, se osredotočajo predvsem na optimistične trende. Ne odgovarjajo na vprašanja, ki jih zastavljajo ljudje v različnih družbenih sektorjih, in se na situacije ne odzivajo hitro. Pobuda za razglasitev tega obdobja za čas digitalnih izrednih razmer bi spodbudila širše razumevanje virov, ki temeljijo na umetni inteligenci, in jim odvzela njihov nepredstavljiv značaj.Spodbujala bi uničujočo izobraževalno shemo, ki bi človeštvo človeštva vseslovensko poglobila skozi vse življenje.

»Drugi članek je» Kritični pogled na razvoj interneta iz civilne družbe «. V njem opisujem, kako se je internet razvijal v zadnjih 20 letih proti koncu dialoga in obsesivnemu spodbujanju vizij, osredotočenih na egocentrične interese . Zgodovinska singularnost, iz katere so se te razmere sprožile, je prišla z Googlovo odločitvijo v zgodnjih 2000-ih, da je oglaševanje postavilo v središče svoje poslovne strategije. Ta se je s pomočjo drugih tehnoloških velikanov uporabnikov preoblikoval v izdelke končnih uporabnikov in agente lastnega trženja ... Ta razvoj je grožnja s pomembnimi posledicami v nevirtualnem svetu, vključno z oslabitvijo demokratičnih temeljev naše družbe.

»Distopični rezultati dokazujejo potrebo po konkretnih smernicah za spremembo poti. Najpomembnejši korak je razglasitev digitalnega izrednega dogodka, ki spodbuja obsežne izobraževalne programe, ki državljane vključijo v prizadevanja za premagovanje etičnih izzivov, prepoznavanje potencialov in tveganj za svetovno družbo znanja ter poudarjanje informacijske pismenosti. "

Bill Woodcock, izvršni direktor pri Packet Clearing House, je dejal: „AI se že uporablja predvsem za namene, ki niso koristni niti javnosti niti vsem, razen majhni peščici posameznikov. Izjeme, kot so navigacijski in varnostni sistemi, so na žalost majhen del celotnega števila. Ugotoviti, kako nekoga prisiliti, da glasuje za fašista ali kupiti kakšno smeti ali preprosto nekam poslati svoj denar, ni koristno. Ti sistemi so zgrajeni z namenom gospodarskega plenjenja, in to je neetično. Dokler se regulatorji ne bodo lotili temeljnih vprašanj - avtomatiziranega izkoriščanja človeških psiholoških slabosti -, stvari ne bodo šle na bolje. "

Jonathan Kolber, član komisije napovedovalcev TechCast Global in avtor knjige o grožnjah avtomatizacije je komentiral: "Pričakujem, da bo do leta 2030 večina umetnih inteligenc še vedno v prvi vrsti služila interesom svojih lastnikov, medtem ko bo v dobro javnosti . AI se bodo širili, ker bodo lastnikom dali izjemno konkurenčno prednost. Ti lastniki na splošno ne bodo želeli "peskoviti" umetnih inteligenc, razen sveta, ker bo to omejilo njihovo hitrost odziva in druge zmožnosti. Najbolj me skrbi, da človeški igralec usmerja umetno inteligenco, da moti vitalni sistem, kot so električna omrežja. To se lahko zgodi namerno kot vojno dejanje ali nenamerno kot napaka. Možnost kaskadnih učinkov je velika. Pričakujem, da bo Kitajska vodilna, če ne vodja na področju umetne inteligence, kar je zaskrbljujoče glede na njihove orvelovske težnje. Največ upanja mi daje potencial za pojav samozavednih umetnih inteligenc. Takšni umetni inteligenci, če se pojavijo, bodo nova vrsta inteligentne oblike življenja. Ne bodo povezani s fizičnim vesoljem kot mi biološko, ker nismo omejeni na eno fizično ohišje in drugačen odnos s časom. Njihov lastni interes jih bo vodil k zaščiti fizičnega okolja pred okoljskimi katastrofami in orožjem za množično uničevanje. Omejiti bi morali umetne umetne inteligence, ki se ne zavedajo sebe, pred uničujočimi dejavnostmi, medtem ko jih človeške zadeve ne zanimajo kaj dosti. To raziskujem v svojem eseju, "AI Epiphany."

Paul Henman, profesor družbenih ved na univerzi v Queenslandu zapisal: "Razvoj, uporabo in uvajanje umetne inteligence - tako kot vse pretekle tehnologije - poganjajo sektorji z največ viri in za namene teh sektorjev. Reklama za ustvarjanje dobička. Vojna in obramba vojaškega sektorja. Skladnost in predpisi držav. AI ni bistveno nova tehnologija. Gre za novo obliko digitalne algoritemske avtomatizacije, ki jo je mogoče uporabiti za širši nabor dejavnosti. Prihodnost je najbolje napovedati iz preteklosti, preteklost pa kaže na dolgo zgodovino digitalnih algoritmov, ki so bili uvedeni brez velikega razmišljanja o etiki in javnem dobru, tudi če upoštevamo zdaj splošno sprejete predpise o varstvu podatkov in zasebnosti. Kako je na primer vladna avtomatizacija postala odgovorna in etična? Prepogosto je niso in so jo omejili le pravni izzivi v okviru zakonov, ki so na voljo. Platforme družbenih medijev že dolgo delujejo v izpodbijanem etičnem prostoru - med etiko "svobode govora" v javnih zbirkah in omejitvami govora za zagotovitev civilne družbe. "

Dan rozalije, vodja politike in lastnik svetovalnega podjetja, specializiran za sistemske pristope k etiki podatkov, skladnosti in zaupanju, je opazil: »V tej individualistični in pohlepni še vedno dobri ameriški družbi obstaja malo spodbud za etično umetno inteligenco. Na žalost tako malo prebivalstva razume mehaniko umetne inteligence, da niti premišljeni državljani ne vedo, kaj vprašati. Da bi lahko prišlo do odgovornega dialoga in kritičnega razmišljanja o tveganjih in koristih, mora biti družba na splošno podatkovno pismena. "

Michael Zimmer, direktorja podatkovne znanosti in izrednega profesorja na oddelku za računalništvo na univerzi Marquette, je dejal: "Čeprav je bilo vse bolj pozornosti pri uporabi širših etičnih načel in dolžnosti pri razvoju umetne inteligence, menim, da so tržni pritiski takšni, da bodo podjetja še naprej uporabljati ozko umetno inteligenco v naslednjem desetletju, pri čemer bo le etično previden. Da, številna podjetja začnejo najemati "etične uradnike" in se na druge načine ukvarjajo z etiko, vendar smo še vedno zelo zgodaj v sposobnosti resničnega vključevanja tovrstnega okvira v razvoj izdelkov in procese poslovnega odločanja. Pomislite, kako dolgo je trajalo, da smo ustvarili uradnike za nadzor kakovosti ali zasebnost. Na etiki umetne inteligence smo na samem začetku tega postopka in uresničitev bo trajala več kot 10 let. "

David Robertson, profesor in predstojnik političnih znanosti na univerzi Missouri v St. Louisu je zapisal: »Velik delež uprave umetne inteligence bo potekal v zasebnih podjetjih in v javnih ali neprofitnih agencijah s spodbudo, da se umetna inteligenca uporablja za dobiček. Imajo majhne spodbude, da svoje vedenje podredijo etičnim načelom, ki zavirajo dobiček. V nekaterih primerih bo trpela preglednost s tragičnimi posledicami. "

Dmitri Williams, profesor komunikacij na Univerzi v Južni Kaliforniji in strokovnjak za tehnologijo in družbo je dejal: "Podjetja so po zakonu dobesedno zavezana maksimirati dobiček, zato je nelogično pričakovati, da bodo uvedla etične prakse. Od njih se lahko pričakuje, da bodo zaslužili in nič drugega. Vprašanje je torej, ali bodo državljani države in naši predstavniki delali v javnem interesu ali za te korporacije. Če bi šlo za prvo, bi morali videti zakone in standarde, da bi zaščitili svoje vrednote - zasebnost, dostojanstvo dela itd. Skeptičen sem, da bodo dobri fantje kratkoročno zmagali v tem boju . Na najvišjih ravneh je malo glasov, ki pozivajo k tovrstnim vrednostnim politikam in v tem vakuumu pričakujem, da bodo interesi podjetij zmagali. Navzgor je, da imamo resničen dobiček pri izboljšanju sveta. AI lahko pomaga pri zdravljenju raka, rešuje globalno segrevanje in ustvarja umetnost. Torej, kljub nekaterim regulativnim zajetjem, pričakujem, da bo AI ponekod izboljšal kakovost življenja. "

Daniel Castro, podpredsednik fundacije za informacijsko tehnologijo in inovacije je dejal: „Vprašanje bi moralo biti:„ Ali bodo podjetja in vlade etične v naslednjem desetletju? “Če ne bodo etične, ne bo„ etične umetne inteligence “. Če so etične , potem bodo nadaljevali etično uporabo umetne inteligence, podobno kot bi to storili s katero koli drugo tehnologijo ali orodjem. To je eden od razlogov, zakaj bi se morali v ZDA osredotočiti na vodstvo svetovne umetne inteligence v partnerstvu z enako mislečimi evropskimi in azijskimi zavezniki, da bi lahko zagovarjali demokratične vrednote. Če bo Kitajska zmagala na svetovni dirki z umetno inteligenco, bo ta napredek verjetno uporabila za prevlado nad drugimi državami tako na gospodarskem kot na vojaškem področju. "

Ian O’Byrne, docent za šolstvo na Charlestonski šoli je napovedal: »AI se bo v naslednjem desetletju večinoma uporabljal na vprašljive načine. Bojim se, da je matrica oddana, ker so bile odločitve o etičnih komponentah razvoja in uporabe umetne inteligence že sprejete ali bi morale biti sprejete že pred leti. Že vidimo primere, ko se strojno učenje uporablja v nadzornih sistemih, orodjih za zbiranje podatkov in izdelkih za analizo. V začetni uporabi umetne inteligence in strojnega učenja vidimo dokaze, da kodo in algoritme pišejo majhne skupine, ki potrjujejo svoje osebne pristranskosti in poklicne potrebe korporacij. Vidimo dokaze o rasističnih in diskriminatornih mehanizmih, vgrajenih v sisteme, ki bodo negativno vplivali na velik del našega prebivalstva. "

Art Brodsky, svetovalec za komunikacije in nekdanji podpredsednik za komunikacije za javno znanje je opazil: »Glede na dosežke tehnoloških podjetij in vlade se bo AI, tako kot druge stvari, uporabljal neetično. Motiv je dobiček - ne etika. Če obstaja način, kako izkoristiti umetno inteligenco in zaslužiti denar, bo to storjeno za ceno ali zasebnost ali kar koli drugega. Podjetjem je vseeno. So podjetja. «

John Laudun, profesor analitike kulture je komentiral: »Ne vidim, kako financiramo medije in druge izdelke, ki se spreminjajo v naslednjem desetletju, kar pomeni, da bodo edine osebe, ki so pripravljene in sposobne podpirati tehnologije umetne inteligence / vlade, vlade in večje korporacije. Dokler ne izkoreninimo avtokratskih - tudi rasističnih - impulzov, ki se zdijo dobro umeščeni v naše policijske sile, ne vidim možnosti, da bi se te tehnologije uporabljale za odpravo socialnih in ekonomskih razlik. Enako velja za korporacije, ki jih večinoma zanima uporaba tehnologij AL / ML, da bi nam prodale več. "

Joan Francesc Gras, arhitekt XTEC, ki deluje v ICANN, vprašal: "Ali se bo umetna inteligenca v naslednjem desetletju uporabljala predvsem etično ali vprašljivo? Tam bo vse. A etika ne bo najpomembnejša vrednota. Zakaj? Želja po moči ruši etiko. Kaj vam daje več upanja? Kaj vas najbolj skrbi? Kako vidite, da aplikacije z umetno inteligenco vplivajo na življenje večine ljudi? Pri spremembi paradigme v družbi bo umetna inteligenca pomagala pri teh spremembah. Katera vprašanja vas skrbijo ali vznemirjajo pri globalni konkurenci za sisteme umetne inteligence? Vesel sem, da konkurenca ustvarja kakovost, hkrati pa se pojavljajo neetične prakse. "

Denise N. Rall, raziskovalec popularne kulture s sedeža na novozelandski univerzi je dejal: "Ne morem si predstavljati, da bodo umetni inteligenci drugačni kot ljudje, ki jih ustvarjajo in tržijo. Še naprej bodo služili bogatim na račun revnih. «

William L. Schrader, internetni pionir, mentor, svetovalec in svetovalec, najbolj znan kot ustanovitelj in izvršni direktor PSINet-a, je napovedal: »Ljudje v resnični moči jih vodi več moči in več denarja za lastno uporabo (in njihove družine in prijatelji). To je voznik. Tako bo kdorkoli z določenim elementom nadzora nad sistemom umetne inteligence skoraj vedno našel način, da ga uporabi v svojo korist in ne v navedeno prednost. Ne glede na vse njihove izjave, da delajo dobro in so etični, bodo lastne sisteme podirali sebi v prid in zlorabljali prebivalce. Vse države bodo deležne enake usode. Ha! Kaj mi daje največ upanja? ‘Upam?’ Te besede nikoli ne uporabljam. Imam samo pričakovanja. Pričakujem, da bodo vsa podjetja lepo tržila svojo umetno inteligenco, na primer: "Prihranili vam bomo denar pri nadzoru temperature in vlažnosti vašega doma", vendar resnično spremljajo vsa gibanja v domu (kar je "potrebno za optimizacijo temperature '). Vse vlade, ki sem jih doživel, so pripravljene biti kadar koli zlobne in vsakič, če lahko skrivajo svoja dejanja. Priča ameriškega predsednika Trumpa 2016–2020. Vse države so si podobne. AI se bo uporabljal za dobro na površju in zlo spodaj. Računajte na to. AI me niti najmanj ne navdušuje. Nevarna je kot H-bomba. "

Dolgoletni arhitekt internetne varnosti in profesor inženirstva je odgovoril: "Skrbi me, kako so bile prejšnje tehnologije uvedene, da bi zaslužile le za terciarno skrb (če sploh) za etiko in človekove pravice. Dva primera sta Palantir in Clearview.ai. Facebook in Twitter sta še naprej primera tudi v tem prostoru. Podjetja, ki delajo v tem prostoru, bodo uvajala izdelke, ki zaslužijo denar. Vlade (zlasti represivne) so pripravljene zapraviti denar. Povezava je neizogibna in precej zaskrbljujoča. Druga velika skrb je, da bodo te postavljene za sprejemanje odločitev - posojila, varščina itd. - in ljudi ne bo mogoče pritožiti, če bodo sistemi okvarjeni ali bodo pokazali pristranskost. Na splošno sem zelo zaskrbljen nad tem, kako bodo ti sistemi postavljeni tako, da bodo zaslužili le redkim, glede na to, kako svet zdaj strukturirajo privilegirani. Zaposlena umetna inteligenca / ML bo verjetno samo še povečala obstoječe razlike in krivico. "

Danny Gillane, strokovnjak za informatiko, ki je žalostno komentiral: »Nimam upanja. Dokler dobiček spodbuja uporabo novih tehnologij, kot je umetna inteligenca, se družbeno dobro umika. Skrbi me, da bo umetna inteligenca ekonomsko škodovala tistim z najmanj. Skrbi me tudi, da bo umetna inteligenca postala nova oblika [oborožene] tekme med svetovnimi silami in da se bo umetna inteligenca uporabljala za zatiranje družb in zaposlovanje v terorizmu. "

Jon Stine, izvršni direktor mreže Open Voice Network, ki je določil standarde za glasovno pomoč z omogočeno umetno inteligenco, je dejal: "Kar me najbolj skrbi: kulturna ločnica med tehnologi inženirske miselnosti (sprašujem, kaj je mogoče) in tehnologi / etiki filozofske miselnosti (sprašujem, kaj je dobro in prav). Prvi lahko etične okvire vidijo kot omejitve ali meje na poti, da bi zaslužili, drugi pa etične okvire lahko vidijo kot pot do lastništva. Se bo twain kdaj zares srečal? Ali bodo etični okviri razumljeni (in količinsko opredeljeni) kot sredstvo za večji tržni delež in prihodke? "

Morgan G. Ames, izredni direktor Kalifornijskega centra za znanost, tehnologijo in družbo ojačevalcev v Berkeleyju je odgovoril: "Tako kot je trenutno malo spodbud, da bi se izognili širitvi nadzornih in kazenskih tehnoloških infrastruktur po vsem svetu, je malo spodbud za podjetja, da se smiselno spoprimejo s pristranskostjo in motnostjo v AI. Premiki v smeri samokontrole so bili in bodo verjetno še naprej ostali brez zob in tudi okviri, kot sta GDPR in CCPA, se v sistemih umetne inteligence ne spopadajo s poštenostjo in preglednostjo. "

Andre Popov, glavni programski inženir velikega tehnološkega podjetja je zapisal: "Če pustimo ob strani vprašanje, kaj pomeni" umetna inteligenca ", je težko razpravljati o tem vprašanju. Kot vsako učinkovito orodje je tudi "umetna inteligenca" najprej našla vojaško uporabo, kjer etika niti ni upoštevna. „AI“ lahko določene operacije naredi bolj učinkovite in se bo uporabljal povsod, kjer prihrani čas / trud / denar. Ljudje imajo težave z oblikovanjem etičnih pravnih sistemov, malo možnosti je, da bomo z "AI" boljši. "

& # 8220 Tako kot je trenutno malo spodbud, da bi se izognili širitvi nadzorne in kazenske tehnološke infrastrukture po vsem svetu, je malo spodbud za podjetja, da se smiselno spoprimejo s pristranskostjo in nepreglednostjo umetne inteligence. & # 8220

Andre Popov, glavni inženir programske opreme za veliko tehnološko podjetje

Ed Terpening, svetovalec in industrijski analitik skupine Altimeter Group je dejal: "Dejansko je, da kapitalizem, kot se trenutno izvaja, vodi v dirko do dna in neetično razdelitev dohodka. Vsaj v ZDA vseeno ne vidim nobenih pomembnih varoval za etično uporabo umetne inteligence, razen vpliva na zdravje blagovne znamke. To pomeni, da podjetja, za katere je bilo ugotovljeno, da uporabljajo umetno inteligenco, neetično plačajo ceno, če se trg odzove z bojkoti ali drugimi sankcijami, ki jih vodijo potrošniki. V svetovnem svetu, kjer bodo konkurenti v avtokratskih sistemih počeli, kot želijo, bo to postalo konkurenčno vprašanje. Dokler ne pride do večjega incidenta, ne vidim, da bi organi globalnega upravljanja, kot sta OZN ali Svetovna banka, izvajali kakršno koli etično politiko z zobmi. "

Rich Ling, profesor medijske tehnologije na tehnološki univerzi Nanyang v Singapurju je odgovoril: „Obstaja nevarnost, da bodo na primer kapitalistični interesi uporabili umetno inteligenco, da bodo koristili njihovemu položaju. Možno je, da obstajajo aplikacije za umetno inteligenco, ki so družbeno koristne, obstaja pa tudi velika verjetnost, da bodo te razvite za krepitev kapitalističnih interesov. "

Jennifer Young, inženir JavaScript in razvijalec uporabniškega vmesnika / frontenda je dejal: »Kapitalizem je sistematično izkoriščanje mnogih s strani redkih. Dokler se umetna inteligenca uporablja v kapitalizmu, se bo uporabljala za izkoriščanje ljudi. Pandorina skrinjica je bila že odprta in malo verjetno je, da bodo rasno profiliranje, politični in pornografski globoki ponaredki ter samovozeči avtomobili, ki trčijo ljudi, kdaj izginili. Kaj je skupnega vsem tem? So primeri umetne inteligence, ki ljudem postavlja tarče na hrbet. AI v kapitalizmu dvigne izkoriščanje na nove višine in začne s tem, kar je običajno končna igra - smrt. In uporablja iste razrede ljudi kot vhodne podatke o svojih funkcijah. Ljudje, ki jih že izkoriščajo z rasizmom, seksizmom in klasicizmom, postanejo bolj abstraktne entitete, ki jih je lažje ubiti, tako kot da so v vojni. AI se lahko uporablja v dobro. Primeri v zdravstvu in biologiji so obetavni. Dokler pa smo svet, ki nore in vojskovodje povzdigne na položaje moči, bo njegova negativna uporaba prednostna naloga. "

Benjamin Šestakofski, docent za sociologijo na univerzi v Pennsylvaniji, je dejal: "Verjetno se bo v prihodnjem desetletju" etični "okvir vedno bolj uporabljal za proizvodnjo sistemov umetne inteligence. Vendar je verjetno tudi, da bodo ti okviri bolj etični v imenu kot v naravi. Brez upoštevanja zakonodajnih sprememb ali predpisov bo izvajanje etike v tehnologiji podobno, kako velike korporacije rešujejo vprašanja, ki se nanašajo na raznolikost pri zaposlovanju in spolnem nadlegovanju. Upoštevanje "etičnih" smernic bo pomagalo tehnološkim podjetjem, da se zaščitijo pred tožbami, ne da bi jih prisilili k razvoju tehnologij, ki pravičnost in javno dobro resnično dajo prednost dobičku. "

Warren Yoder, dolgoletni direktor Centra za javno politiko v Mississippiju, zdaj izvršni trener, je odgovoril: »Široko sprejemanje resničnih in posledičnih etičnih sistemov, ki presegajo oblikovanje oken, se ne bo zgodilo brez temeljne spremembe lastniške strukture velike tehnologije.Etika po definiciji omejuje kratkoročne možnosti dobička. Ne verjamem, da bo velika tehnologija naredila posledične spremembe, če ne bo obstajala učinkovita ureditev ali konkurenca. Trenutni regulatorji šele začenjajo imeti analitična orodja za spopadanje s tem izzivom. Rad bi verjel, da se dovolj novih mislecev, kot je Lina Khan (sodno sodišče v ameriškem parlamentu - protimonopolno pravo), premika na vplivne položaje, toda naslednjih 12 mesecev nam bo veliko povedalo, kaj je mogoče v bližnji prihodnosti. "

Ben Grosser, izredni profesor za nove medije na Univerzi v Illinoisu-Urbana-Champaign, je dejal: "Dokler so organizacije, ki spodbujajo raziskave in uvajanje umetne inteligence, zasebne korporacije, katerih poslovni modeli so odvisni od zbiranja, analize in delovanja osebnih podatkov, potem umetne inteligence ne bo težil k etiki. Vse pogosteje bodo napoteni za napovedovanje človeškega vedenja z namenom ustvarjanja dobička. Videli smo že, kako se to dogaja (na primer z uporabo analize podatkov in ciljnega oglaševanja za manipulacijo volilnega telesa ZDA in Združenega kraljestva leta 2016), in se bo samo poslabšalo, ko se bo vse več človeške dejavnosti prenašalo po spletu. "

Jeanne Dietsch, Senator iz New Hampshira in nekdanji direktor podjetja MobileRobots Inc. je komentiral: „Težava je v tem, da se bo umetna inteligenca uporabljala predvsem za povečanje prodaje izdelkov in storitev. V ta namen bo manipulativno. Uporaba umetne inteligence za reševanje zapletenih logističnih problemov bo resnično koristila naši družbi, saj bodo sistemi delovali bolj gladko, individualizirali izobraževanje, gradili družbene vezi in še veliko več. Slaba stran zgoraj navedenega je, da ustvarja in bo še naprej ustvarjal odmevne komore, ki povečujejo nevednost in napačne informacije. "

Patrick Larvie, svetovni vodja ekipe za uporabniško izkušnjo na delovnem mestu v enem največjih svetovnih tehnoloških podjetij je opazil: "Upam, da se motim, toda zgodovina interneta do zdaj kaže, da so morda napisana kakršna koli pravila glede uporabe umetne inteligence v korist zasebnim subjektom, ki želijo komercialno izkoriščati umetno inteligenco in ne potrošnikom, ki bi jim takšna podjetja služila. Vidim, da umetna inteligenca pozitivno vpliva na številna področja - zmanjšuje porabo energije in zmanjšuje odpadke. Če se bojim, da bo negativno, se umetna inteligenca zamenja za človeško interakcijo. To vidimo v uporabi umetne inteligence za potrošniške izdelke, kjer so roboti začeli nadomeščati človeške agente. "

Peter Levine, profesor državljanstva in javnih zadev na univerzi Tufts zapisal: "Primarni problem ni tehnični. AI lahko vključuje etična varovala ali pa je celo zasnovan tako, da maksimira pomembne vrednote. Težava vključuje spodbude. Obstaja veliko načinov, kako podjetja pridobijo dobiček in vlade pridobijo moč z uporabo umetne inteligence. A za to, da to storite etično, je malo (če sploh) nagrad. "

Holmes Wilson, sopredsednik Fight for the Future, je dejal: "Še preden bomo ugotovili splošno umetno inteligenco, bodo sistemi umetne inteligence uvedbo množičnega nadzora in fizične sile izredno poceni in učinkoviti za vse, ki imajo dovolj velik proračun, večinoma nacionalne države. Če lahko avto vozi sam, lahko helikopter sam ubije ljudi, za tistega, ki ga ima v lasti. Povečali bodo tudi moč nesimetričnega vojskovanja. Vsak robotski avto, policaj ali vojaško letalo bo tako vdrl, saj je vse z zadostnimi izdatki, naslednjega 11. septembra pa bo tako težko dokončno pripisati, kot je danes napad hekerjev na ameriško podjetje. Avtonomni orožni sistemi so nekaj med orožjem v začetku 20. stoletja in jedrskim orožjem v poznem 20. stoletju, zato mu hitimo brez ideje, kako slabo bi lahko bilo. … Skrbelo bi moralo biti zaradi obstoječih struktur moči, ki gradijo policijske enote za daljinsko upravljanje in okupatorske vojske na daljinsko vodenje. Ta grožnja je na ravni jedrskega orožja. Res, res nevarno. "

Susan Price, uporabnik izkušenj, pionir in strateg ter ustanovitelj podjetja Firecat Studio, je zapisal: "Ne verjamem, da vlade in regulativne agencije želijo razumeti posledice umetne inteligence za etiko in zaščito potrošnikov ali volivcev. Vprašanja v kongresu komaj opraskajo površino vprašanja, politično držo pa prepogosto nadomešča izvoljene uradnike, zadolžene za nadzor, da bi resnično razumeli ta zapletena vprašanja. Močan profitni motiv za tehnološka podjetja jih vodi do tega, da se upirajo kakršni koli takšni zaščiti ali predpisom. Dobičkonosnost teh podjetij jim omogoča, da neposredno vplivajo na zakonodajalce prek lobijev in PAC-ov, ki zlahka prevzamejo prizadevanja agencij za varstvo potrošnikov in neprofitnih organizacij, kadar te niso neposredno prepovedane ali razpuščene. Facebook, Google, Twitter in Amazon se upirajo prizadevanjem za nadzor, revizijo in preglednost, ki bi vodili k zaščiti potrošnikov. AI že izboljšuje življenje. Toda s tem tudi bistveno hitreje izboljšuje dobiček podjetij. Brez močne ureditve tega neravnovesja ne moremo popraviti, postopki, namenjeni zaščiti ameriških državljanov pred izkoriščanjem prek izvoljenih voditeljev, pa na podoben način spodkopavajo sredstva teh istih velikih podjetij. "

Craig Spiezle, generalni direktor in strateg zaupanja za Agelight in zaslužni predsednik združenja Online Trust Alliance je dejal: „Ne glejte dlje od zasebnosti podatkov in drugih s tem povezanih vprašanj, kot je nevtralnost omrežja. Na splošno se industrija ni zbirala etično pri zbiranju, uporabi in izmenjavi podatkov. Mnogi od teh istih voditeljev igrajo pomembno vlogo v umetni inteligenci in bojim se, da bodo še naprej delovali v lastnih interesih. "

Sam Punnett, futurist in upokojeni lastnik FAD Research, je komentiral: „Oblikovanje sistemov in aplikacij običajno zahteva poslovni primer, ne etični vidiki. Kakršne koli uredbe ali smernice običajno zaostajajo v razvoju tehnologije za več let. Najbolj zaskrbljujoče aplikacije sistemov umetne inteligence so tiste, ki se uporabljajo za nadzor in družbeni nadzor. "

Strokovnjak za etiko, ki je bil svetovalec britanskega poročila o "umetni inteligenci v zdravstvu" je odgovoril: "Mislim, da tehnološka podjetja sploh ne razumejo etike. Lahko ga dojamejo le v algoritemski obliki, tj. Neke vrste avtomatizirani utilitarizem ali s pomočjo "poravnave vrednosti", ki navadno uporablja tehnike ekonomistov okoli razkritih preferenc in teorije družbene izbire. Ne morejo razmišljati v smislu obveznosti, odgovornosti, solidarnosti, pravičnosti ali vrline. To pomeni, da izoblikujejo veliko posebnosti človeške etične misli. V misli, ki sem jo nedavno pripisoval Hannah Arendt, čeprav ne najdem vira: „Ne gre za to, da bi bihejviorizem resničen, bolj za to, da bi lahko postal resničen. To je težava.“ Rasistično bi bilo reči, da v nekaterih delih sveta razvijalci umetne inteligence manj skrbijo za etiko kot bolj verjetno, da jih drugačna etična vprašanja skrbijo na različne načine. Toda vse to je v tem, da uporabljeni modeli strojnega učenja v svojem načinu delovanja nasprotujejo človeški etiki. "

Nathalie Maréchal, višja raziskovalna analitičarka pri Ranking Digital Rights, je opazila: „Dokler razvoj in uporaba sistemov umetne inteligence ni utemeljena v mednarodnem okviru za človekove pravice in dokler vlade ne bodo urejale umetne inteligence v skladu z načeli človekovih pravic in razvile celovit sistem za pripravo ocen učinka na človekove pravice, revizija sistemov, ki zagotavljajo, da delujejo, kot je predvideno, in odgovorne osebe kršijo, "AI za vedno" bo še naprej prazen slogan. "

Mark Maben, generalnega direktorja univerze Seton Hall zapisal: »Preprosto ni v DNK našega sedanjega gospodarskega in političnega sistema, da bi javno dobro postavili na prvo mesto. Če ljudje, ki načrtujejo, izvajajo, uporabljajo in urejajo umetno inteligenco, ne uporabljajo etičnih načel, osredotočenih predvsem na javno dobro, nimajo nobene spodbude za ustvarjanje sveta, ki ga vodi umetna inteligenca in ki ta načela uporablja. Če imamo umetno inteligenco, ki je namenjena predvsem javnemu dobremu, lahko pridemo le z intenzivnim pritiskom javnosti. Podjetja in politike je pogosto treba spodbujati, da delajo pravilno. Na srečo se zdi, da so ZDA v trenutku, ko so tak pritisk in spremembe [možne], če sploh ne verjetne. Kot nekdo, ki skoraj vsak dan sodeluje z generacijo Z, sem opazil, da številni člani generacije Z globoko razmišljajo o etičnih vprašanjih, tudi v zvezi z umetno inteligenco. Ta generacija se bo morda izkazala za razliko v tem, ali dobimo umetno inteligenco, ki jo vodijo predvsem etična načela, usmerjena v javno dobro. "

Arthur Bushkin, pisatelj, filantrop in družbeni aktivist, je dejal: "Skrbi me, da umetne inteligence ne bo vodila etika, temveč tehnološka učinkovitost in drugi dejavniki."

Dharmendra K. Sachdev, pionir na področju telekomunikacij in ustanovitelj-predsednik podjetja Spacetel Consultancy LLC je zapisal: »Moja poenostavljena definicija je, da je umetna inteligenca lahko pametna, z drugimi besedami, tako kot človeški um, lahko spreminja smer glede na zbrane podatke. Vprašanje, o katerem se pogosto razpravlja, je: Ali lahko umetna inteligenca prelisiči ljudi? Moj poenostavljeni odgovor: Da, pri nekaterih ljudeh pa ne pri oblikovalcu. Groba vzporednica bi bila: Ali lahko študent prelisiči svojega profesorja? Da, seveda da, vendar morda ne bo prelisičil vseh profesorjev na svojem področju. Če povzamem svoje resnično omejeno razumevanje, je vsa programska oprema ustvarjena za izvajanje nabora funkcij. Ko ga opremite s sposobnostjo spreminjanja poti, odvisno od podatkov, to imenujemo AI. Če lahko naredim agilnejšega od konkurence, ga moj AI lahko prelisiči. "

Karen Yesinkus, kreativni strokovnjak za digitalne storitve in opazil: "Rad bi verjel, da bo umetna inteligenca, ki se bo etično uporabljala do leta 2030, vzpostavljena. Vendar mislim, da to verjetno ne bo zagotovo. Družabni mediji, človeški viri, storitve za stranke itd. So in bodo še vedno imeli težave (zlasti vprašanja pristranskosti). Glede na obstoječe politično podnebje v svetovnem merilu bo potrebno več kot naslednjih 10 let, da se umetna inteligenca otrese takšne pristranskosti. "

Marc H. Noble, upokojeni razvijalec / skrbnik tehnologije, je zapisal: "Čeprav verjamem, da bo večina umetne inteligence razvita v dobro človeštva, me zelo skrbi, da potrebujete samo eno slabo skupino za razvoj umetne inteligence iz napačnih razlogov, da ustvarite potencialno katastrofo. Kljub temu je treba umetno inteligenco raziskovati in razvijati z veliko mero previdnosti. "

Eduardo Villanueva-Mansilla, izredni profesor komunikologije na Pontificia Universidad Catolica v Peruju, je napovedal: »Javni pritisk bo na akterje umetne inteligence. Vendar obstaja veliko tveganje, da se dogovorjena etična načela oblikujejo pretesno glede na družbene in politične zahteve razvitega sveta. Ne bodo upoštevali potreb gospodarstev v vzponu ali lokalnih skupnosti v državah v razvoju. "

Garth Graham, dolgoletni vodja Telecommunities Canada, je dejal: "Nagnjenja k upravljanju po vsem svetu, da bi izkoreninili javno dobro v korist tržnih pristopov, so neizprosna. Prizadevanje za uvedbo sistemov, ki temeljijo na umetni inteligenci, ne bo postavilo javne dobrine kot prednostno nalogo. Na primer, obstoječe pobude Smart City so zelo pripravljene na zunanje izvajanje načrtovanja in delovanja zapletenih prilagodljivih sistemov, ki se učijo, ko delujejo v državljanskih funkcijah, ne da bi se zavedali, da delovanje takšnih sistemov nadomešča funkcije upravljanja. "

AI duh je že iz steklenice, že se pojavljajo zlorabe, nekatere pa niso zelo vidne in jih je težko odpraviti

Del teh strokovnjakov ugotavlja, da so aplikacije z umetno inteligenco, zasnovane z malo ali nič pozornosti etičnim vidikom, že globoko vpete v številne vidike človeške dejavnosti in so na splošno nevidne za ljudi, na katere vplivajo. Ti anketiranci so povedali, da algoritmi delujejo v sistemih, ki so v najboljšem primeru nepregledni in jih je v najslabšem primeru nemogoče secirati. Trdijo, da je zelo malo verjetno, da bi se etični standardi lahko ali bodo uporabljali v tej nastavitvi. Drugi prav tako poudarjajo, da obstaja skupna dinamika, ki se pokaže, ko nove tehnologije preplavijo družbe: najprej pride do zlorab, nato pa se poskušajo rešiti težave. Težko je programirati digitalna orodja, ki temeljijo na algoritmih, na način, ki predvideva, naslavlja in ruši vse težave. Večina težav ostaja neznana, dokler jih ne prepoznamo, včasih še dolgo potem, ko so izdelani, distribuirani in aktivno uporabljeni.

Henning Schulzrinne, Član Internet Hall of Fame in nekdanji direktor tehnologije za Zvezno komisijo za komunikacije je dejal: »Odgovor je močno odvisen od oblike vlade, ki bo v državi v prihodnjih nekaj letih. V povsem deregulacijskem okolju z močnim odmikom proti populizmu reda in miru bo veliko dobaviteljev umetne inteligence, ki jih bo malo skrbelo glede finih točk etike umetne inteligence. Večina te umetne inteligence ne bo vidna javnosti - zaposlovale jo bodo zdravstvene zavarovalnice, ki bodo spet lahko diskriminirale glede na obstoječe pogoje, delodajalci, ki iščejo zaposlene, ki ne bodo povzročali težav, drugi, ki bodo želeli zatirati kakršna koli prizadevanja za združevanje v proračun z volilnimi kampanjami, usmerjenimi v ozke podskupine. "

Jeff Johnson, profesor računalništva na Univerzi v San Franciscu, ki je pred tem delal v podjetjih Xerox, HP Labs in Sun Microsystems, je odgovoril: »Vprašanje postavlja vprašanje o» večini sistemov umetne inteligence. «Za izboljšanje poslovanja bodo razvili številne nove aplikacije umetne inteligence. Nekateri od njih bodo etični, drugi pa ne. Številne nove aplikacije umetne inteligence bodo razvite za pomoč potrošnikom. Večina bo etičnih, nekateri pa ne. Vendar bo velika večina novih aplikacij za umetno inteligenco "temnih", torej skritih pred očmi javnosti, razvitih za vojaške ali kriminalne namene. Če jih preštejemo, je odgovor na vprašanje o "večini sistemov umetne inteligence" nedvomno, da se bo umetna inteligenca uporabljala večinoma v neetične namene. "

John Harlow, strokovnjak za raziskave pametnih mest na Engagement Lab @ Emerson College napovedal: »AI se bo v naslednjem desetletju večinoma uporabljal na vprašljive načine. Zakaj? Tako se je uporabljalo do zdaj in ne izobražujemo ali vgrajujemo etikov, kjer je umetna inteligenca v razvoju, zakaj bi se torej kaj spremenilo? Najbolj upam, da je umetna inteligenca slepa v znane primere učinkovite uporabe in znane „nezmožnosti“. Mogoče je umetna inteligenca pri nekaterih stvareh dobra, a opustimo področja, na katerih imamo samo smeti (aplikacije, ki temeljijo na zgodovinsko pristranskih podatkov). Večina aplikacij AI, ki vplivajo na življenje večine ljudi, bo v zaledju, zanje nevidna. ‘Joj, zadnja posodobitev sistema iOS je resnično izboljšala napovedne predloge za besedilo.’ ‘Oh, moj zobozdravnik ima radiološko programsko opremo, ki jo obvešča umetna inteligenca?’ Eden od načinov, kako bi lahko šel v mainstream, je komedija. Čudnost umetne inteligence je dostopen žanr in način, kako se (nekoliko) naučiti / poučiti o tehnologiji - mislim, da bi se to morda bolj prebijalo kot zabavna niša. Kar zadeva svetovno konkurenco v zvezi z umetno inteligenco, me skrbi osredotočenost na umetno inteligenco, premagovanje drugih držav na področju umetne inteligence in STEM. Naši izzivi vsekakor zahtevajo racionalne metode. Vendar imamo velike težave, ki jih ni mogoče rešiti brez zgodovinske utemeljenosti, delujočih družb, sodelovanja, umetniškega navdiha in mnogih drugih stvari, ki trpijo zaradi pretirane osredotočenosti na STEM ali AI. "

Steve Jones, profesor komunikologije na univerzi Illinois v Chicagu in urednik časopisa Novi mediji in družba, je komentiral, "Imeli bomo več razprav, več razprav, več načel, vendar si težko predstavljamo, da bo - v primeru ZDA - med politiki in oblikovalci politik obstajala volja, da se ustanovi in ​​izvrši zakon, ki temelji na etičnih načelih v zvezi z umetno inteligenco . Običajno skedenj uzakonimo po odhodu konj. Pričakoval bi, da bomo v tem primeru storili enako. "

Andy Opel, profesor komunikologije na državni univerzi Florida je dejal: "Ker bo umetna inteligenca verjetno dobila dostop do vse večjega števila osebnih in družbenih podatkov, bo omejevanje teh podatkov v ožji gospodarski ali politični interes težko."

Doug Schepers, dolgoletni strokovnjak za spletne tehnologije in ustanovitelj podjetja Fizz Studio je opazil: "Tako kot danes bo obstajala vrsta namerno etičnih računalnikov, nekakovostnih nenamerno neetičnih računalništev in namerno neetičnih računalništev z uporabo umetne inteligence. Globoke fake bodo zaskrbljujoče za politiko in druge družbene dejavnosti. V celoti bo privedlo do motenj. Večina raziskovalcev ali oblikovalcev izdelkov sama po sebi ne bo dosledno sledila etični umetni inteligenci, tako kot večina ljudi ne razume ali dosledno uporablja načel digitalne dostopnosti za invalide. Večinoma bo šlo za nenamerni nadzor, vendar bo vseeno slab rezultat. Upam, da se bodo najboljše prakse pojavile in jih še naprej izpopolnjevale s skupnostmi prakse, podobno kot strokovni pregled v znanosti. Upam tudi, da bodo morda sprejeti zakoni, ki bodo kodificirali nekatere najočitnejše najboljše prakse, podobno kot Zakon o ameriških invalidih in oddelek 508 izboljšujejo dostopnost s predpisi, vendar še vedno niso preveč zahtevni. Bojim se, da bodo nekateri zakoni zadušeni, na primer tisti o raziskavah izvornih celic. Strojno učenje in umetna inteligenca lahko na veliko načinov izboljšata življenje ljudi, na primer računalniški vid slepih. To bo postopno, tako kot sta računalništvo z blagom in naraščajoči internet izboljšala (in včasih škodovala) ljudem. Najverjetneje ne bo šlo za potresni premik, ampak za zamik. Eden od temnejših vidikov obstoječega povečanja nadzorniškega kapitalizma in njegove uporabe v avtoritarnih državah. Upam, da bodo zakoni to omejili. "

Jay Owens, direktor raziskav na pulsarplatform.com in avtor HautePop, je dejal: „Izobraževanje o računalništvu - in ideologija Silicijeve doline na splošno - se osredotoča na„ kaj je mogoče storiti “(tehnično vprašanje), ne da bi veliko razmišljali o„ naj se to naredi “( in politično vprašanje). Tehnična kultura bi se morala obrniti na glavo, da bi etična vprašanja postala središče raziskav in uvajanja umetne inteligence, kar je malo verjetno. Pričakoval bi, da se bo razvoj strojnega učenja nadaljeval po enakem vzorcu kot v zadnjem desetletju - večinoma ignoriranje etičnega vprašanja, občasno pa tudi polemike, kadar se zgodi kaj posebej seksističnega ali rasističnega. Veliko strojnega učenja je že (in bo še naprej) nevidno za vsakdanje življenje ljudi, vendar ustvarja učinkovitost procesov (npr. Pri napovedovanju vremena, skladiščenju in logistiki, upravljanju prevoza). Koristili bodo tudi drugi procesi, za katere si morda ne želimo, da bi bili bolj učinkoviti (npr. Raziskovanje nafte in plina z uporabo satelitskih posnetkov in geološke analize). Pozitivno se počutim do sistemov, kjer sta ML in človeško odločanje kombinirana (npr. Sistemi za medicinsko diagnostiko).Mislim, da se strojno učenje uporablja pri modeliranju podnebja, kar je prav tako očitno koristno. Ne moremo pričakovati, da bo kitajski tehnološki razvoj sledil zahodnim etičnim zadržkom, in glede na totalitarno (in genocidno) naravo te države je verjetno, da bo ustvaril nekaj sistemov ML, ki bodo dosegli te policijske cilje. Socialne aplikacije v kitajski lasti, kot je TikTok, so že pokazale rasne pristranskosti in jih verjetno manj motivirajo. Ne vidim možnosti, da bo čez 10 let dosežena "splošna inteligenca" ali splošna strojna inteligenca in še manj razlogov za paniko zaradi tega (kot to počnejo nekateri čudaki v Silicijevi dolini). "

Robert W. Ferguson, inženir strojne robotike na Inštitutu za programsko inženirstvo Carnegie Mellon, je zapisal: »Kolikokrat moramo to povedati? Strokovno učenje brez nadzora je v najboljšem primeru nepopolno. Če ga dopolnimo z objavljeno vzročno analizo, bo morda povrnil nekaj verodostojnosti. V nasprotnem primeru trpimo zaradi tega, kar je povedala Cathy O'Neil v "Weapons of Math Destruction." Nenadzorovano strojno učenje brez vzročne analize je neodgovorno in slabo. "

Michael Richardson, odprtokodni inženirski svetovalec je odgovoril: "V osemdesetih letih so" umetno inteligenco "imenovali" ekspertni sistemi ", ker smo prepoznali, da ni" inteligentna ". V 2010-ih smo jo iz istega razloga . ML je le nov način za gradnjo strokovnih sistemov. Ponavljajo pristranskost "strokovnjakov" in ne vidijo dlje od njih. Je algoritmično trgovanje etično? Naj preoblikujem: ali to naše gospodarstvo dejansko potrebuje? Če se isti algoritem uporablja za uravnoteženje ekosistemov, ali se odgovor spremeni? AI že imamo. Imenujejo se "korporacije". Mnogi so na to že opozorili. Avtomatizacija tega kolektivnega uma je resnično tisto, na kar se nanaša. Menim, da uporaba umetne inteligence pri obsodbi krši ustavne pravice ljudi, in mislim, da bo ustavljena, saj se zaveda, da samo institucionalizira rasizem. "

Glavni arhitekt v tehnološkem podjetju je dejal: "Ne vidim okvira ali zmožnosti nobene vladne agencije, da bi razumela, kako deluje umetna inteligenca. Izvajalci sploh ne vedo, kako to deluje, in jih hranijo kot lastniške podatke. Razmislite, kako dolgo je trajalo uvedbo varnostnih pasov ali omejitev kajenja na delovnem mestu, kjer so bili vzroki in posledice tako jasni, kako lahko upamo, da bomo v naslednjih 10 letih nadzorovali umetno inteligenco?

Globalna konkurenca, zlasti med Kitajsko in ZDA, bo za razvoj umetne inteligence bolj pomembna kot katera koli etična vprašanja

Številni od teh anketirancev so svoje odgovore oblikovali okoli dinamike "dirke v orožju", ki poganja tehnološke velesile, in opozorili, da jim vzbuja prekleto etično držo. Nekateri so dejali, da obstajajo pomembne razlike v etičnih vidikih, ki jih različne nacionalne države uporabljajo in bodo v prihodnosti veljale za razvoj umetne inteligence. Mnogi so na ZDA in Kitajsko opozorili kot na vodilna tekmeca v oboroževalni tekmi nacionalnih držav.

Daniel Farber, avtor, zgodovinar in profesor prava na univerzi v Kaliforniji-Berkeley, je odgovoril: "Obstaja ogromna negotovost. Zakaj? Najprej Kitajska. To je velik del sveta in v tem, kar trenutno vidim, ni ničesar, kar bi me spodbudilo k uporabi AI. Drugič, umetna inteligenca v ZDA je večinoma v rokah korporacij, katerih glavni cilj je seveda maksimiranje dobička. Pod nekaterimi pritiski bodo vključili etiko javnosti in zaposlenih, kar bo vplivalo na moderiranje. Temeljna težava je, da je umetna inteligenca verjetno v rokah institucij in ljudi, ki že imajo moč in vire, kar bo neizogibno oblikovalo način uporabe tehnologije. Skrbi me, da bo to preprosto okrepilo ali povečalo sedanja neravnovesja moči. Potrebujemo ne le etično umetno inteligenco, temveč tudi etični dostop do umetne inteligence, da jo lahko posamezniki uporabijo za povečanje lastnih sposobnosti. "

J. Scott Marcus, ekonomist, politolog in inženir, ki dela kot svetovalec za telekomunikacije, je zapisal: »Razdrobljenost politik nas bo ovirala. Dokler se večina naložb v umetno inteligenco vlaga v ZDA in na Kitajskem, soglasje ni mogoče. Evropska unija bo poskušala uveljaviti pravila, vendar ni jasno, ali lahko ob rivalstvu ZDA in Kitajske povzročijo veliko sprememb. ZDA (tudi Japonska) imajo velik delež v porabi, vendar ne tako veliko v proizvodnji z več vidikov. Večji pa so pri IoT in robotiki, zato je morda tam več upanja. Zaradi zasebnosti je Evropska unija zaradi velike kupne moči prisilila dokaj visoko stopnjo globalne konvergence. Ni jasno, ali to lahko deluje za umetno inteligenco. "

Charles M. Ess, profesor medijskih študij na Univerzi v Oslu, katerega strokovno znanje je na področju informacijske in računalniške etike, je dejal: "Največ upanja je v Evropski uniji in s tem povezanih prizadevanjih za razvoj" etične umetne inteligence "tako v politiki kot v zakonu. Veliko prvovrstnih ljudi in razmeroma trdnih institucij dela na tem in po mojem mnenju je dosežen nekaj obetavnega napredka. Toda EU je kot svetovna voditeljica stisnjena med Kitajsko in ZDA, pri čemer nihče od obeh ne more prevzeti tistega, čemur bi lahko rekli etično vodstvo. Kitajska je v ospredju izvoza tehnologij "digitalne avtoritarnosti". Kakršna koli pomembna kulturna opozorila naj bi bila glede bolj kolektivne družbe, ki bi te tehnologije nadzora in nadzora pozitivno ocenjevale, saj nagrajujejo prosocialno vedenje - spopad z osnovnimi predpostavkami demokracija, vključno s pravicami do zasebnosti, svobode izražanja itd., je neizogibna in nedvomna.

»ZDA imajo v svojem najboljšem primeru (v najboljšem primeru) poskuse reguliranja teh tehnologij - začenši z računalniško zakonodajo iz sedemdesetih let, ki ta podjetja uvršča med prevoznike in ne kot ponudnike vsebin, zato ni predmet ureditve, ki bi vključevala pozornost. do vprašanj svobode govora itd. Moja napoved je, da bodo Google in njegovi kolegi v Silicijevi dolini še naprej uspešno zagovarjali kakršno koli zunanjo ureditev ali vsiljevanje standardov za etično umetno inteligenco v imenu uspeha v svetovnem merilu. konkurenca s Kitajsko. Morda bi morali še posebej dati Googlu nekaj dvoma in ugotoviti, kako se dejansko odvijajo njegove nedavne pobude v smeri etične umetne inteligence. Toda 1) tisto, kar vem iz prve roke, da so Googlova uspešna prizadevanja za pranje etike (npr. Poskus najemanja nekaterih njegovih strožjih in vidnejših etičnih kritikov na akademiji, da bi odkupil njihov molk), in 2) glede na to, glede izkušenj s sodelovanjem z avtoritarnimi režimi, vključno s Kitajsko, je tukaj težko biti optimističen.

»Seveda bomo videli nekaj čudovito pozitivnih premikov in izboljšav - morda predvsem v medicini. In morda je prav, da imamo sisteme priporočil, ki nam pomagajo pri pogajanjih, na primer milijone izbranih pesmi na Spotify. Toda tudi te aplikacije so predmet pomembne kritike, npr. Pod imenom "algoritmizacija okusa" - na preoblikovanje naših okusov in preferenc vplivajo nepregledni procesi, ki jih vodijo korporativni interesi, da bi povečali našo angažiranost in porabo, kar nam ni nujno v pomoč odkrivanje osvobajanja in opolnomočenja novih možnosti. Bolj očitno, še posebej, če tehnike umetne inteligence in tehnike strojnega učenja ostanejo v črni skrinjici in nepredvidljive, tudi tistim, ki jih ustvarjajo (kar je AI in ML navsezadnje namenjeno), večinoma vidim zelo temno in nočno prihodnost v prihodnosti. ki jih vedno več našega vedenja spremljajo in nato potiskajo algoritemski procesi, ki jih ne moremo razumeti, in s tem tekmujejo. Najbolj očitni trenutni primeri so na področjih tako imenovanega "napovednega policijskega dela" in s tem povezanih prizadevanj, da se človeška presoja nadomesti s strojnim "odločanjem." Kot je pokazala Mireille Hildebrandt, ko ne moremo več izpodbijati predloženih dokazov proti nam na sodišču - ker ga zbirajo in obdelujejo algoritemski procesi, tudi njegovi ustvarjalci ne morejo razjasniti ali razpakirati - to je konec sodobnih praks prava in demokracije. Jasno je, da je dovolj slabo, če se te tehnologije uporabljajo za razvrščanje ljudi glede na njihove bonitetne ocene: zanašanje na te tehnologije za presojo / odločitve o tem, kdo vstopi v katero izobraževalno ustanovo, kdo si ne zasluži pogojnega izpusta in kaj podobnega itd. Jaz sem osupljivo nočna distopična prihodnost.

"Spet gre lahko za" pogumen novi svet ", ki je udoben in enostaven, vsaj dokler se ravna po vedenjih, za katera je vredno pozitivne nagrade itd. Toda, če uporabimo drugačno prispodobo - morda mlajša generacija neznana, na žalost - ostali bomo človeški ekvivalenti golobov Skinner v lepih in udobnih kletkah Skinner, skrbno ožičeni, da čim bolj povečamo želeno vedenje s pozitivno okrepitvijo, če ne odvračamo od tega, kaj bo opredeljeno kot neželeno vedenje z negativno okrepitvijo (vključno s silo in nasiljem), če bo potrebno . "

Adam Clayton Powell III, višji sodelavec v ameriškem centru za vodenje in politiko komunikacij v Annenbergu opazil: »Do leta 2030 bodo mnogi uporabljali etično umetno inteligenco, mnogi pa ne. Toda v večjem delu sveta je jasno, da bodo vlade, zlasti totalitarne vlade na Kitajskem, v Rusiji in drugih, želele nadzorovati umetno inteligenco znotraj svojih meja in bodo imele sredstva za uspeh. In te vlade zanima samo samoohranitev - ne etika. "

Alf Rehn, profesor za inovacije, oblikovanje in upravljanje na Univerzi na Južnem Danskem je dejal: "V naslednjih desetih letih si bomo prizadevali za etično umetno inteligenco, vendar samo dobri nameni ne vplivajo na moralo. AI je zapletena, prav tako etika, in kombinacija obeh bo res zelo zapleten problem. Verjetno bomo videli kar nekaj okornih poskusov ustvarjanja etičnih sistemov umetne inteligence s pripadajočimi težavami. Prav tako je pomembno upoštevati kulturna in geopolitična vprašanja. Obstaja veliko interpretacij etike in ljudje dajejo različno vrednost različnim vrednotam, tako da lahko na primer kitajska etična umetna inteligenca deluje povsem drugače - in ustvarja različne rezultate - npr. Od britanske etične umetne inteligence. To ne pomeni, da je eden boljši od drugega, le da so si lahko precej drugačni. «

Sean Mead, višji direktor strategije in analitike pri Interbrandu, je zapisal: »Kitajska kraja zahodnih in japonskih tehnologij umetne inteligence je eno najbolj zaskrbljujočih etičnih vprašanj, s katerimi se bomo soočili. Imeli bomo etična vprašanja glede obeh potencialnih pristranskosti, vgrajenih v sisteme umetne inteligence, z izbiro ali razpoložljivostjo podatkov o usposabljanju in sklopov strokovnega znanja ter pristranskosti, ki so značilne za predlagane rešitve, ki skušajo preprečiti takšne težave. Sistemi za identifikacijo avtonomnih orožnih sistemov bodo še naprej sprožali številna etična vprašanja, zlasti ko države uvajajo kopenske sisteme v interakciji z ljudmi. Sistemi socialnih kreditov, ki jih poganja umetna inteligenca, bodo imeli preveč moči nad življenjem ljudi in bodo pomagali oživiti avtoritarne sisteme. AI bo omogočil večji beg iz mest v bolj gostoljubna in zdrava bivalna območja z avtomatizacijo vladnih služb in večjo preglednostjo nabora znanj za potencialne delodajalce. "

Mark Perkins, strokovnjak za informacijsko znanost, aktiven v internetni družbi, je dejal: »AI bodo razvijale korporacije (s podporo vlade) z malo spoštovanja etike. Zgledu Kitajske bodo sledile tudi druge države - razvoj umetne inteligence z uporabo podatkov državljanov brez učinkovitega soglasja za razvoj izdelkov, ki niso v interesu takih državljanov (nadzor, nadzor prebivalstva, napovedovanje policije itd.). Umetna inteligenca bo razvita tudi za izvajanje različnih cen / ponudb, ki bodo še povečale „digitalni razkorak“. AI bodo vlade in družbe uporabljale za sprejemanje netransparentnih in neodgovornih odločitev v zvezi z državljansko umetno inteligenco, saj bodo državljani imeli malo - če sploh - razumevanje njihovega delovanja, na podlagi česar se odločajo itd. "

Wendell Wallach, etik in učenjak z Interdisciplinarnega centra za bioetiko na univerzi Yale je odgovoril: "Čeprav pozdravljam širjenje etičnih načel, me še vedno skrbi zmožnost držav, da dajo meso na kost. Širših načel ni enostavno prevesti v normativne ukrepe, vlade pa bodo težko sprejele stroge predpise. Tistim, ki bodo prevzeli vodilno vlogo pri urejanju digitalnih tehnologij, na primer EU, bodo očitali, da upočasnjujejo inovacije, kar bo vladam in korporacijam še naprej ostalo v utemeljitev, da bodo počasi sprejele stroge predpise, podprte z izvrševanjem. Zaenkrat prevladuje etično beljenje, ki prevladuje med poslovno elito. Čeprav obstajajo znaki morebitnega premika v tej drži, ostajam dvomljiv, čeprav upam. "

Pamela McCorduck, pisatelj, svetovalec in avtor številnih knjig, med drugim tudi »Stroji, ki mislijo«, je zapisal: »Po vsem svetu potekajo številna prizadevanja za opredelitev etične umetne inteligence, kar kaže na to, da to že velja za resno težavo, ki je vredna intenzivnega preučevanja in pravnega sredstva. Sčasoma bo nabor načel in zapovedi določil etično umetno inteligenco in mislim, da bodo opredelili prevlado aplikacij umetne inteligence. Lahko pa ste prepričani, da bo neetična umetna inteligenca obstajala, se vadila in včasih ne bo prepoznana, dokler ne bo narejena resna škoda. Velik del konflikta med etičnimi in neetičnimi aplikacijami je kulturni. V ZDA bi ugotovili, da je vrsta socialnega nadzora, ki se izvaja na Kitajskem, ne samo gnusna - ampak tudi nezakonita. Tvori srce kitajskih praks. Kratkoročno bo samo nepripravljenost zahodnih sodišč, da sprejmejo tako zbrane dokaze (kot nedopustne), zahodne državljane zaščitilo pred tovrstnimi stvarmi, vključno z "socialnimi ocenami", ki jih kitajska vlada dodeli svojim državljanom kot posledico nadzora. se pokaže. Čutim, da bo več vsakdanjih ljudi vlagalo družbeni kapital v svoje interakcije z umetno inteligenco, zaradi osamljenosti ali iz drugih razlogov. To mi je nezaželeno, potem pa imam širok družbeni krog. Ne vsi, in tu se želim upirati presoji. "

Arhitekt prakse, specializiran za umetno inteligenco za večje svetovno tehnološko podjetje dejal: „Evropska unija ima najbolj konkretne predloge in verjamem, da bomo njihovo zakonodajo sprejeli v treh letih. Upam, da bomo v ZDA videli valovalni učinek, kot smo ga dosegli z GDPR - svetovna podjetja so morala upoštevati GDPR, zato se je v ZDA zgodilo nekaj dobrih ukrepov. ... Verjetneje bomo videli nadaljevanje posameznih mest in držav, ki uvajajo svoje zakone, specifične za uporabo (npr. Omejitve tehnologije za prepoznavanje obrazov v Oaklandu, Bostonu itd.). Razlogi, zaradi katerih dvomim, da bo večina aplikacij umetne inteligence etična / koristila družbenemu blagu, so:

  1. Tudi predlogi EU so omejeni glede tega, kaj bodo potrebovali
  2. Kitajska nikoli ne bo omejila umetne inteligence za socialne ugodnosti pred vladnimi koristmi
  3. Zmožnost oblikovanja zbirke nadzornih organizacij s proračunom za revizijo in resnično kaznovanje storilcev kaznivih dejanj je malo verjetna.

»Pogledam upravo za prehrano in zdravila ali NTSB [Nacionalni odbor za varnost prevoza] in vidim, kako so te organizacije postale preveč prijetne s podjetji, ki naj bi jih regulirale, in vidim njihove neuspehe. Te organizacije urejajo izdelke, ki so veliko manj zapleteni kot umetna inteligenca, zato malo verjamem, da bo ameriška vlada kos tej nalogi. Še enkrat, morda bo EU boljša. "

Raziskovalec bioinformatike in računalniške biologije opazil: "Upoštevajte ukrepe KPK [Kitajske komunistične partije] na Kitajskem. V zadnjem času imajo vodilno vlogo pri dokazovanju, kako je mogoče ta orodja uporabljati na neetičen način. In ZDA se v nasprotju z državami EU niso močno zavezale k etiki na področju umetne inteligence. AI in etika v zvezi z njegovo uporabo bi lahko bila ena glavnih ideoloških izhodišč za naslednjo hladno vojno. Najbolj me skrbi uporaba umetne inteligence za nadaljnje poseganje v zasebnost in spodkopavanje zaupanja v institucije. Skrbi me tudi, kako se uporablja za oblikovanje politike na nepregleden, nerazložljiv in nepredložljiv način. Obstaja tudi tveganje, da se nekateri veliki nabori podatkov, ki so bistveni za veliko odločanja - od prepoznavanja obrazov, kazenskega obsodbe do prošenj za posojilo - izvajajo z uporabo umetne inteligence, ki je kritično pristranska in bo še naprej prinašala pristranske rezultate če se uporabljajo brez hudih revizij - težave s preglednostjo sestavljajo te težave. Tveganje, da napredek pri zdravljenju z umetno inteligenco ne bo pravično razdeljen. "

Sam Lehman-Wilzig, profesor in nekdanji predsedujoči komunikologije na univerzi Bar-Ilan v Izraelu je dejal: "Sem optimist, ker je to vprašanje zdaj na nacionalnem dnevnem redu - znanstvenem, akademskem in celo političnem / zakonodajnem. Verjamem, da so znanstveniki in inženirji nekoliko bolj odprti za "etične" razmisleke kot običajni "poslovneži." Glavna skrb je, kaj bi lahko počele druge (nedemokratične) države - in ali bi morali sodelovati v takšni "oboroževalni tekmi". , 'npr. avtomatsko orožje z umetno inteligenco. Tako predvidevam prehod na mednarodne pogodbe, ki obravnavajo najbolj zaskrbljujoče vidike "etike umetne inteligence."

Ekonomist, ki dela v vladi odgovoril: „Etična načela bodo razvita in uporabljena v demokratičnih državah do leta 2030, s poudarkom na javnem dobru, globalni konkurenci in kibernetskih kršitvah. Druge manj demokratične države bodo bolj osredotočene na kibernetske kršitve in globalno konkurenco. Nevladni subjekti, kot so zasebna podjetja, se bodo verjetno osredotočili na inovacije in druge konkurenčne odzive. AI bo imela pomemben vpliv na ljudi, zlasti glede njihove službe in tudi na njihovo sposobnost vplivanja na funkcije, ki jih nadzoruje AI. Ta nadzor in vpliv kiber kriminalitete bosta zelo zaskrbljujoča, inovacije pa bodo zapletle. "

Ian Peter, pionirski aktivist za internetne pravice, je dejal: »Največji grožnji, s katero se soočamo, je orožništvo umetne inteligence in omejevanje razvoja umetne inteligence znotraj geopolitičnih zavezništev. Začetke tega že vidimo pri ukrepih za omejevanje dejavnosti podjetij, ker se zdi, da so grozeča (npr. Huawei). Vedno več dogodkov na tem področju nadzirajo nacionalni interesi ali trgovinske vojne, ne pa etični razvoj, večina obljub, ki bi lahko izhajale iz uporabe umetne inteligence, pa se morda ne bo uresničila. Etika zavzema drugo mesto za trgovino in geopolitičnimi interesi. "

Jannick Pedersen, soustanovitelj, izvršni direktor in futurist s sedežem v Evropi, je dejal: "AI je naslednja oboroževalna tekma.Čeprav bodo običajne aplikacije za umetno inteligenco vključevale etične vidike, bo velika količina umetne inteligence ustvarjena za dobiček in uporabljena v poslovnih sistemih, kar uporabnikom ne bo vidno. "

Marita Prandoni, lingvist, samostojni pisatelj, urednik, prevajalec in raziskovalni sodelavec skupine Shape of History je napovedal: »Prevladovale bodo etične uporabe umetne inteligence, vendar bo to stalni boj proti motečim robotom in mednarodna prizadevanja za spodkopavanje narodov. Izkazalo se je, da algoritmi povečujejo pristranskost in povzročajo krivico, zato je zanašanje nanje zaradi motenja, prepričevanja ali manipuliranja mnenja napačno. Kar me navdušuje, je to, da oglaševalci zavračajo platforme, ki omogočajo pristranski in nevaren sovražni govor, in da vedno bolj obstajajo gospodarski gonilniki (tj. Korporacijske pristojnosti), ki stojijo na strani socialne pravičnosti. "

Gus Hosein, izvršni direktor organizacije Privacy International, je ugotovil: "Če AI ne postane konkurenčni problem in ne prevladujejo velika ameriška in kitajska podjetja, potem so možnosti za etično umetno inteligenco majhne, ​​kar je grozljiva resničnost. Če se pri uvajanju razširi, kot smo videli pri prepoznavanju obrazov, je edini način, da zaustavimo njegovo uvajanje na neetične načine, jasno jasne prepovedi in prisilna preglednost. Zato je umetna inteligenca tako zahtevna. Prav tako je povsem nesmiselno, vendar nam to ne bo preprečilo, da bi ga poskušali uporabiti povsod. Temeljna kakovost podatkov in družbena vprašanja pomenijo, da bo umetna inteligenca samo kaznovala ljudi na nove, drugačne in enake načine. Če smo še naprej obsedeni z inovatorji in inovacijami in ne s socialno infrastrukturo, potem smo zajebani. & # 8221


Uvod

Stalna rast svetovnega prebivalstva je interakcija s povečanjem oskrbe z energijo 1,2,3. Po navedbah Pimentela in sod. Je pri zalogah fosilnih virov prišlo do znatnega zmanjšanja, ki ga v 30–40 letih te rezerve ne bodo mogle zadostiti svetovnim potrebam 4. Dejstvo, da je prekomerna poraba omejenih fosilnih virov ljudi pripeljalo do alternativnih virov energije, kot sta veter in sončna energija. Pravzaprav se je povpraševanje po energiji na osnovi električne energije stalno povečevalo, medtem ko se je razvoj tehnologije povečeval sto let. Ta položaj močno vpliva na rabo električne energije, poraba pa se je vsakih 14,5 let podvojila 5,6.

Pravzaprav je neizogiben vir proizvodnje električne energije fosilna goriva, ki imajo največji delež s 60% 7. Povečanje uporabe fosilnih goriv bistveno vpliva ne samo na okolje, ampak tudi na podnebje 8,9. Na podlagi poročila Unije se je treba za nadzor nad povečevanjem okoljskih problemov in poslabšanjem ter za ublažitev podnebnih sprememb osredotočiti na uporabo obnovljivih virov energije kot alternativnih virov energije 10. Poleg tega so bile glede tega poročila spremenjene politike držav. S prejšnjimi politikami, ki so se približale nepopravljivi točki naravnega življenja in degradacije okolja, da bi zagotovili trajnostno okolje, so se začele oblikovati politike gospodarske rasti v perspektivi trajnostnega razvoja, ki skrbijo za okolje in naravno življenje 11,12. Da bi te politike lahko uporabili, so za razkrivanje obnovljivih virov energije potrebne dobro analizirane dežele. Napredna tehnologija dandanes omogoča tudi te analize. Paketni programi, ki delujejo z geografskimi informacijskimi sistemi (GIS) in infrastrukturami daljinskega zaznavanja, so še posebej v veliko podporo pri namestitvi elektrarn na obnovljive vire energije.

V Turčiji se povpraševanje po energiji skupaj z rastjo prebivalstva povečuje iz dneva v dan. Izboljšanje gospodarstva in življenjskega standarda je povečalo tudi potrebno energijo. Sistemi sončne energije, ki igrajo pomembno vlogo pri reševanju energetskih problemov, enega od teh alternativnih virov energije, so bili razširjeni 13,14. Regija Vzhodna Anatolija, ki ima 2664 ur trajanja sončnega obsevanja in letno 1365 kWh / m 2 sevanja, velja za pomembno regijo, saj uvršča tretje od sedmih regij v Turčiji glede na potencial sončne energije 15. Poleg tega je mesto z največjo površino v regiji Vzhodna Anatolija Erzurum s približno 25.355 km 2, ki ima topografsko aktivne strukture in široke ravnice. Dejstvo, da je območje Erzuruma tako visoko, omogoča ustanovitev številnih sončnih elektrarn Erzurum v provincialnem merilu. Pravzaprav je Erzurum 16, ki je gostil eno samo nameščeno sončno elektrarno s prvo licenco za sončno elektrarno, izdano leta 2014, v provinci Erzurum gosti 33 velikih in majhnih sončnih elektrarn v letu 2018 17. V tej študiji obravnavamo vprašanje določitve zaželenih lokacij za sončno elektrarno v provinci z upoštevanjem ekoloških tveganj in ekoloških kriterijev na način, da zagotovimo najmanjše uničenje naravnega ravnovesja province Erzurum.

V literaturi so v študiji, ki jo je opravil 18. let za določitev potenciala sončne energije regije Knjazevac na vzhodu Srbije, določili 4 kriterije: podnebje, topografija, solsticij in raba zemljišč. V študiji, ki jo je izvedlo 19, je bilo upoštevano 11 meril za določitev področij, kjer bo v Iranu vzpostavljen GES. Ker prednosti meril niso gotove, je bil pri ponderiranju uporabljen Fuzzy Analytical Hierarchy Process (BAHS), v okolju GIS pa je bil ustvarjen zemljevid skladnosti GES za Iran. Poleg tega so bile z upoštevanjem 1057 regij države določene najprimernejše regije za GES. Kot rezultat študije, ki jo je 20 izvedlo AHS in GIS za celotno Savdsko Arabijo, je bilo ugotovljeno, da so najprimernejša območja za GES severni in severozahodni del države. Razumelo se je, da ima razdalja do cest, daljnovodov in naselij pomembno vlogo pri določanju teh območij. V študiji, ki jo je opravil 21, so bila območja, kjer bo GES ustanovljen v mestu Khuzestan v Iranu, določena z uporabo BAHS in GIS. Kot rezultat študije je bilo razumljeno, da ima mesto Khuzestan velik potencial. Tudi v najslabšem scenariju so izračunali, da bo v tej regiji proizvedena energija 1,75-krat večja kot v celotnem Iranu v letu 2013. Hkrati se domneva, da bodo postaje na jugu in jugozahodno od regije bo učinkovit proti dezertifikaciji v tej regiji. V 22 študiji so bila določena 4 glavna merila in 8 podkriterij, in sicer podnebje, vodni viri, lokacija in topografija, da bi določili območja, ki bodo ustanovljena na vzhodu Maroka. V pregledu literature je bilo ugotovljeno, da se metode AHS in BAHS pogosto uporabljajo pri ustvarjanju karte združljivosti z GIS. V pregledu literature je bilo ugotovljeno, da se metode AHS in BAHS pogosto uporabljajo pri ustvarjanju karte združljivosti z GIS. V tej študiji je bil namenjen primerjanju uporabe klasičnega in intuicijskega nejasnega pristopa pri ustvarjanju zemljevida ustreznosti. V ta namen so bili preučeni rezultati analize, pridobljeni z uporabo obeh metod, namenjen pa je bil razpravi o prednostih in slabostih metod v primerjavi med seboj.

Obstajajo številne prejšnje študije, ki se ukvarjajo s problemom optimalne izbire lokacije za elektrarno. Ena najprimernejših metod so tehnike kartiranja in te tehnike ter razvijajoča se tehnologija so bile prilagojene sistemu, in sicer GIS. Na podlagi literature je bilo vključevanje obnovljive energije v bazo GIS po vsem svetu opravljeno 23,24,25,26,27. Hkrati so v sončni elektrarni 28,29 vetrne elektrarne 30,31,32 in hibridna elektrarna na izbirnem mestu 33 uporabljale GIS in infrastrukturni sistem daljinskega zaznavanja, da so izkoristile območja, primerna za ekološka merila na sl. 1.

Poleg tega težave pri izbiri lokacije sončnih elektrarn ne temeljijo na natančnih merilih, temveč pogosto na nejasnih in nenatančnih izrazih. Za reševanje negotovosti je Zadeh 35 predstavil teorijo mehkih množic, ki omogoča natančno obravnavanje jezikovnih ocen. Teorija mehkih množic je bila razširjena na številne tipe, kot je prikazano na sliki 1. Znanstvena literatura kaže, da je bila vsaka vrsta uporabljena na številnih področjih in da je bila le malo uporabljena kot ključni del rešitev pri namestitvi obnovljivih virov. desetletje. Na podlagi literature so bili na splošno mehki sklopi tipa 1 uporabljeni bodisi neposredno bodisi v kombinaciji z drugimi metodami odločanja z več merili, kot je postopek analitične hierarhije (AHP), VIKOR o težavah z izbiro lokacije sončne elektrarne. Yousefi in sod. 36 je uporabil mehki GIS model za določitev ustreznih področij za namestitev sončnih elektrarn v Markaziju v Iranu glede na tehnična, ekonomska in okoljska merila. Poleg tega Zoghi et al. 37 je dejal, da bo obnovljiva energija postala nepogrešljivo mesto za države, Iran pa je zaželeno mesto kot vir sončne energije. Iz tega razloga se pri njihovem delu uporablja mehki model za določanje meril, nato pa se provinca Isfahan v Iranu preuči glede na merila, določena s predlaganim mehkim modelom.

Predlaganih je tudi nekaj metodologij, ki kombinirajo mehke metode z drugo metodo pri odločanju o sončni energiji. Na primer, Wiguna et al. 38 je obravnaval nejasen pristop AHP in PROMETHEE za problem izbire lokacije sončne farme na Baliju. Kahraman in Otay sta poudarila metodo AHP na osnovi Z-mehke, ki zagotavlja boljšo zastopanost kot običajne mehke številke in se uporablja pri izbiri lokacije sončne PV elektrarne 34. V delu Solangi et al. 39, se za oceno 14 mest v Pakistanu uporablja tehnika mehke VIKOR, da bi ugotovili, katera mesta so najprimernejša za postavitev sončnih elektrarn z upoštevanjem več meril, kot so ekonomsko in okoljsko. Glede na literaturo obstaja le nekaj študij o razširitvah mehkih množic zaradi njihove računske zapletenosti in večina raziskovalcev se je osredotočila na mehke modele tipa 1. Vendar pa je v tej študiji predlagan intuicionističen nejasen pristop za reševanje problema izbire lokacije namestitve sončne elektrarne.


Zahteva za prevladujočo plačo - prošnja za vizum H1B, LCA

Odgovornost in plača delodajalca H1B je zagotoviti, da je delavec H1B plačan enakovredno prevladujoči plači ali minimalni plači, določeni za delovno mesto H1B, podobno kot ameriški delavec na podobnem delovnem mestu. Delavci skupine H1B ne morejo delati pod minimalno plačo za položaj, ponujen na tem območju. Temelji na različnih dejavnikih, povezanih s ponujenim delovnim mestom, kot so izkušnje, geografski položaj in izobrazba.

Informacije o minimalni plači za različna delovna mesta so na voljo na spletnem mestu podatkovnega centra za potrjevanje dela. Spletna knjižnica plač za delavce skupine H1B pozna minimalno plačo za določeno delovno mesto. Spletno mesto FLCDataCenter je uradni vir prevladujočih informacij o plačah in država Utah po pogodbi z Ministrstvom za delo ZDA, Uradom za tuje delo.


Vzorec načrta tečaja

To bo uporabljeno kot vodilo za bodoče študente, da dobijo idejo o tem, katere tečaje izvajajo s tem programom. Splošni katalog vsebuje najnatančnejše in najnovejše zahteve za posamezne programe na LSU.

Legenda: Glavni inženiring Drugo inženirstvo Znanost Matematika Splošna izobrazba

1. leto 2. leto 3. leto 4. leto
Uvod v računalništvo I Diskretne strukture Operacijski sistemi Programski jeziki
Uvod v računalništvo II Napredne podatkovne strukture in analiza algoritmov Razvoj programskih sistemov Etika v računalništvu
Biologija I Numerične metode Izbirni predmet Računalništvo Izbirni predmet Računalništvo
Fizikalne vede I Organizacija in oblikovanje računalnikov Izbirni predmet Računalništvo Izbirna koncentracija računalništva
Fizikalne vede I Lab Predmetno usmerjeno oblikovanje Izbirna koncentracija računalništva Izbirna koncentracija računalništva
Račun I Biologija II ali Fizikalna znanost II Izbirna koncentracija računalništva Izbirna koncentracija računalništva
Račun II Biologija II ali Fizikalne vede II Lab Tehnični izbirni predmet Izbirni predmet, odobren za računalništvo
Splošno Ed: Humanistika Elementarne diferencialne enačbe in linearna algebra Tehnični izbirni predmet Izbirni predmet, odobren za računalništvo
Splošno Ed: English Comp I Splošno Ed: English Comp II Inženirska statistika Splošno Ed: Družbene vede
Splošno Ed: Humanistika Splošno Ed: Družbene vede Splošno Ed: Umetnost
Komunikacijske študije

Srednješolsko izobraževanje

Napredovanje v srednješolsko izobraževanje (educación media, 10. in 11. razred) na splošno zahteva dokončanje osnovnega izobraževanja, čeprav lahko nekatere šole uvedejo dodatne pogoje za sprejem. Srednješolsko izobraževanje ni obvezno, a načrtujejo ga do leta 2030 in dodajo še 12. leto šolanja, da kolumbijski sistem uskladijo z veliko večino izobraževalnih sistemov po vsem svetu.

V primerjavi z osnovnošolsko izobrazbo educación media je bolj raznolik in obsega različne tokove. Obstaja splošni akademski tok (bachillerato académico), pa tudi tehnični tok za zaposlovanje (bachillerato técnico). Oba programa vključujeta splošna akademska temeljna predmeta, vendar se akademski program osredotoča na nadaljnjo specializacijo iz predmetov, kot so naravoslovje, družboslovje, humanistika ali tuji jeziki, medtem ko tehnični program vključuje teoretične in praktične tečaje za posebne poklice, kot so trgovina, kmetijstvo, informacijska tehnologija ali industrija. Diplomanti obeh programov so upravičeni do sprejema v terciarno izobraževanje. Večina študentov se vpiše na akademsko smer, le manjšina pa študira na tehničnem področju.

V nasprotju z osnovnim izobraževanjem ni nastavljenega nacionalnega srednješolskega učnega načrta. MEN je izdal kurikularne smernice za več temeljnih predmetov, vendar smernice niso zavezujoče, zato lahko obstajajo velike razlike v učnih načrtih od šole do šole. Vsi maturantje, ki želijo nadaljevati visokošolsko izobraževanje, pa morajo ob koncu 11. razreda opraviti nacionalni izpit ICFES (glej stransko vrstico spodaj), kar pomaga pri uskladitvi učnih načrtov.

Diplomanti prejmejo diplomo in naziv, ki označujeta vrsto programa, to je bodisi Título de Bachiller Académico (naziv akademskega prvostopenjca) bodisi Título de Bachiller Técnico (naziv tehničnega dodiplomskega študenta). Šole same določijo svoje diplomske zahteve - MEN ne uvaja predpisov - vendar večina ustanov zahteva minimalno povprečje ocen, ki ga določajo interni izpiti in druga merila. MEN je določil nacionalno ocenjevalno lestvico, vendar šole lahko uporabljajo lastne „institucionalne sisteme za ocenjevanje učencev“, če svoje ocene pretvorijo tudi v državno lestvico (prikazano spodaj). To pomeni, da akademski prepisi iz šol, ki uporabljajo alternativne lestvice, številčne ali drugačne, v svojih akademskih evidencah običajno navedejo tako institucionalno oceno kot tudi pretvorjeno nacionalno oceno.

Vse več je mednarodnih šol in colegios bilingues v Kolumbiji, ki je namenjena otrokom premožnejših gospodinjstev. V mnogih primerih učenci teh šol zaslužijo oba Kolumbijca bachillerato diploma in tuja kvalifikacija, kot je ameriška srednješolska diploma.

Sabre 11 (izpit ICFES)

Sabre (znanje), prej znan kot izpit ICFES, je standardiziran test, ki ocenjuje znanje in spretnosti kolumbijskih študentov. Sablja je podana v različnih razredih (3, 5, 9, 11) in se uporablja za merjenje uspešnosti šol in splošne kakovosti izobraževalnega sistema. Čeprav Sabre 11 ne vpliva na akademsko napredovanje študentov, je za maturante izrednega pomena, saj ga kolumbijske visokošolske institucije zahtevajo za sprejem. Pomemben je tudi za pridobivanje štipendij in študentskih posojil.

Test Sabre 11 zajema pet predmetov: kritično branje, angleščino, matematiko, naravoslovje in družboslovje ter državljanske vede. Izpit se opravi dvakrat letno, da se prilagodijo različnim akademskim koledarjem (možnosti A in B). Sestavljen je iz vprašanj z več izbori in nekaj esejističnih vprašanj, ki jih upravljata dve seji štiri ure in pol. Skupna maksimalna ocena je 500, pri vsakem predmetu pa 0-100 možnih točk. Končne ocene so razen v angleškem delu, ki je uvrščeno v skladu z evropskimi standardi CEFR, razvrščene v štiri kategorije, od katerih zadnja ni zadostna. Na zadnji izpitni seji leta 2018 je v to kategorijo spadalo 17 odstotkov udeležencev. Učenci iz zasebnih šol in urbanih območij običajno nastopajo bolje na izpitu kot učenci javnih šol in podeželskih regij. Študenti lahko ponovno opravljajo izpite, da izboljšajo svoje rezultate.

Izzivi: nizka udeležba in visoka stopnja osipa

Čeprav educación media je bil leta 2012 na javnih šolah brezplačen, šolanje pa se v zadnjih letih stalno povečuje, udeležba pa po mednarodnih standardih ostaja nizka. Neto stopnja vpisa v višje sekundarne stopnje - odstotek vpisa znotraj ustrezne starostne skupine - je leta 2018 znašala le 42,5 odstotka.

Tudi stopnje ponavljanja razredov so visoke, kar ima za posledico veliko število prekomernih šolarjev v Kolumbiji. Po podatkih OECD se je število petnajstletnikov, ki so vsaj en razred ponovili, med letoma 2009 in 2015 povečalo z 38 na 43 odstotkov - drugi najvišji odstotek med 70 državami, ki so sodelovale v študiji PISA iz leta 2015. Še več, veliko učencev opusti šolanje, zlasti na podeželju, kjer je manj kot polovica vseh srednješolskih učencev vztrajala do 11. razreda sredi leta 2010.

Glede na veliko število osipnikov in posameznikov, ki sploh ne vstopijo v srednješolsko izobraževanje, ICFES starejšim Kolumbijcem ponuja priložnost, da si prislužijo bachillerato diplomo z enakovrednim izpitom, ki je zelo podoben Sabre 11 (examen de validación del bachillerato académico). Posamezniki se lahko na izpit pripravijo v šolah za izobraževanje odraslih, programih nadaljnjega izobraževanja ali prilagodljivem "sistemu učenja z vajami".


7. ZAKLJUČEK

V tem raziskovalnem prispevku smo preučili različne zdravstvene sisteme v Kanadi, Nemčiji in ZDA. Razlike obstajajo glede financiranja, plačilnih mehanizmov ponudnikov in vloge vlade, vključno s stopnjo centralizacije. ZDA izstopajo kot država z najvišjimi izdatki za zdravstveno oskrbo. Zdi se, da imajo sistemi, ki svojo oskrbo utemeljujejo z državno oskrbo ali državnim zavarovanjem, nižje stroške na & # x02013 prebivalca.Po drugi strani pa so v pretežno zasebnem sistemu v ZDA čakalne dobe ponavadi krajše kot v racioniranih sistemih, kar sklep izhaja zgolj iz teorije in opazovanja. Američani so bili bolj nezadovoljni s svojim zdravstvenim sistemom kot Kanadčani ali Nemci s svojim zdravstvenim sistemom. Mnogi glavno vrzel v ameriškem sistemu označujejo kot problem nezavarovanih & # x02013 več kot 40 milijonov ljudi. Čeprav to ne pomeni, da gredo povsem brez oskrbe, nezavarovani v povprečju porabijo le polovico manj zdravstvene oskrbe kot zavarovanci.

Med tremi državami so ZDA absolutno največji porabnik v absolutnem smislu na prebivalca. To je tudi največji delež v BDP. Nemčiji uspe zagotoviti zdravstveni sistem, ki zagotavlja univerzalno zdravstveno zavarovanje, hkrati pa se izogniti čakalnim vrstam, ki pogosto povzročajo težave vladnim sistemom. Vendar pa so se stroški na prebivalca povečevali hitreje kot dohodki na prebivalca, kar je povzročilo naporne reforme v devetdesetih letih.

Mnogi Američani menijo, da je Kanada uspešno razvila celovit in splošen nacionalni program zdravstvenega zavarovanja, ki je stroškovno učinkovit in priljubljen.

V primerjavi z ameriškim sistemom ima kanadski sistem nižje stroške, več storitev, splošen dostop do zdravstvenega varstva brez finančnih ovir in vrhunsko zdravstveno stanje. Kanadčani in Nemci imajo daljšo pričakovano življenjsko dobo in nižjo umrljivost dojenčkov kot prebivalci ZDA.

Del vrzeli med ameriškimi in kanadskimi stroški zdravstvenega varstva je mogoče razložiti z neupoštevanjem kapitalskih stroškov kanadske bolnišnice, večjim deležem starejših v ZDA in višjo stopnjo izdatkov za raziskave in razvoj v ZDA.

Omeniti je treba, da podatki iz različnih držav iz več razlogov morda niso neposredno primerljivi, zato jih je treba sprejeti z nekaj dvoma.

Na primer, v državah ne obstaja standardna taksonomija. Tudi v praksi je pogosto zelo težko potegniti črto, ki ločuje zdravstvene storitve, kot so storitve akutne in dolgotrajne oskrbe. Poleg tega je treba pred smiselno primerjavo denarne vrednosti za izdatke za zdravstveno varstvo in bruto domači proizvod pretvoriti v skupni imenovalec, kot so ameriški dolarji. Vsak pretvorbeni faktor, na primer paritete kupne moči ali menjalni tečaji, ni brez merilne napake (Santerre in Neun 561).

Nazadnje večina Kanadčanov in Nemcev meni, da njihovi zdravstveni sistemi potrebujejo manjše do zmerne spremembe, medtem ko v ZDA precejšen del prebivalstva meni, da so potrebne velike in temeljne spremembe. Vsak zgoraj analizirani zdravstveni sistem doživlja nenehen proces sprememb in izboljšav, vsi trije sistemi pa se borijo z neskončno bitko omejevanja stroškov, zagotavljanja kakovostnih storitev ter vzdrževanja in širjenja dostopa do zdravstvenega varstva. Ta cilj je tisti, ki ga lahko upajo le doseči ali se mu približati. Velik del ekonomske pogače porabijo zdravstveni sistemi v teh treh državah, pomen zdravstvenega varstva pa bo verjetno v prihodnjih letih imel še večji pomen. Posledično bo zanimivo opazovati prihodnji razvoj in izboljšave v zdravstvenih sistemih Kanade, Nemčije in ZDA.


Upravljanje s tveganji

Obvladovanje tveganj je umetniški izraz, ki se uporablja za opis kompleksnih dejavnosti, pri katerih institucija prepozna in oceni svoja tveganja ter nato oblikuje načrt za obravnavo teh tveganj. Medtem ko izvajalci informacijske varnosti za obvladovanje tveganj informacijske varnosti uporabljajo prakse obvladovanja tveganj, se lahko prakse obvladovanja tveganj uporabljajo za obravnavo katere koli institucionalne dejavnosti, ki uvaja neko vrsto poslovne negotovosti.

Najosnovnejše upravljanje tveganj vključuje štiri korake:

Obvladovanje tveganja ni & ldquoone in opravljeno & rdquo dejavnost. To je treba storiti v okviru nenehnega institucionalnega procesa, da zagotovimo, da spreminjajoče se okoliščine, procesi in tehnologija ne vnašajo novih tveganj v institucionalne dejavnosti.

Pregled

Vsak dober visokošolski program informacijske varnosti je v veliki meri odvisen od praks obvladovanja tveganj. Te prakse se uporabljajo za prepoznavanje premoženja, ki ga mora institucija zaščititi, razumevanje groženj in ranljivosti tega premoženja ter oblikovanje načrta za zaščito tega premoženja, tako da lahko institucija najbolje izpolni svoje glavne cilje, kot so poučevanje, raziskovanje in ozaveščanje skupnosti. Skoraj vsaka disciplina uporablja obvladovanje tveganj za prepoznavanje in določanje prednosti. Upravljanje tveganj informacijske varnosti je glavna podskupina procesa upravljanja tveganj v podjetju, ki vključuje tako oceno tveganj informacijske varnosti za institucijo, kot tudi določitev ustreznih ukrepov upravljanja in določenih prednostnih nalog za upravljanje in izvajanje nadzora za zaščito pred temi tveganji. .

To poglavje naj ne bi bilo vseobsegajoče vodilo za upravljanje tveganj. Na voljo je veliko odličnih virov, s pomočjo katerih se boste naučili osnov upravljanja tveganj. To poglavje se osredotoča na obvladovanje tveganj informacijske varnosti z institucionalnega vidika, da bi pomagalo & ldquofpolniti vrzel & rdquo med industrijskimi viri in praksami obvladovanja tveganj informacijske varnosti v visokem šolstvu.

Obstaja več dobrih referenc v industriji za učinkovite programe za obvladovanje tveganj informacijske varnosti, vključno z okvirom NIST za obvladovanje tveganj (NIST SP 800-37, Okvir za upravljanje tveganj za informacijske sisteme in organizacije: pristop življenjskega cikla sistema za varnost in zasebnost) in / IEC 27005: 2018, Informacijska tehnologija & mdash Varnostne tehnike & mdash Obvladovanje tveganja informacijske varnosti. Poleg tega obstajajo številni okviri za obvladovanje tveganj, ki niso specifični za varnost informacij, vendar so kljub temu zelo uporabni. Ti okviri so lahko odlični gradniki, ki jih je treba upoštevati pri razvoju zmožnosti obvladovanja tveganj informacijske varnosti. To poglavje takšne vire dopolnjuje z zagotavljanjem pregleda na visoki ravni dejavnosti obvladovanja tveganj informacijske varnosti z institucionalnega vidika, seznama priporočenih orodij za dejavnosti obvladovanja tveganj informacijske varnosti, povezav do primerov praks v izbranih institucijah in drugih koristnih napotkov.

Osnovna terminologija za obvladovanje tveganj

Obvladovanje tveganj je sestavljeno iz vseh tekočih in usklajenih dejavnosti za usmerjanje in nadzor odzivanja institucije na tveganja, s katerimi se sooča. Pojmovnik v tem priročniku vsebuje vire, ki bodo podrobneje opisali pogoje za obvladovanje tveganj, toda to so izrazi, ki jih morate zares poznati, ko začnete z dejavnostmi upravljanja tveganj za informacijsko varnost:

  • Tveganje: Možnost ali verjetnost, da lahko grožnja izkoristi ranljivost in povzroči škodo.
  • Ocena tveganja: Postopek za ugotavljanje, ocenjevanje in določanje prednostnih nalog odziva na institucionalna tveganja. Rezultati ocene usmerjajo določitev ustreznih ukrepov upravljanja in prednostnih nalog za obvladovanje tveganj informacijske varnosti in za izvajanje nadzora za zaščito pred temi tveganji.
  • Apetit po tveganju: Znesek tveganja, ki ga je institucija pripravljena sprejeti kot strošek & ldquodoing poslovanja. & Rdquo
  • Grožnja: Vsaka namerna ali nenamerna nevarnost, ki izkorišča ranljivost.
  • Ranljivost: Slabost ali pomanjkljivost procesa (avtomatiziranega ali ročnega) ali informacijskega sistema.
  • Odziv na tveganje: Kako se institucija odloči, da se odzove na tveganje. Običajno ga lahko sprejmejo, se mu izognejo, ga omilijo ali prenesejo. Ne glede na to, kako se institucija odziva na tveganja, vedno ostane nekaj tveganja (imenovano preostalo tveganje).

Vrste ocen tveganja

Vedeti morate tudi, da obstajata dve glavni vrsti ocen tveganja: kvantitativna in kvalitativna. Kvantitativni ocene tveganja poskušajo dodeliti denarno vrednost premoženju, ki se ocenjuje, denarne stroške za vpliv škodljivega dogodka in odstotke glede na pogostost groženj in verjetnost dogodkov. Kakovostno ocene tveganja pa temeljijo na scenariju in ne poskušajo dodeliti denarne vrednosti premoženju, ki se ocenjuje, ali vplivu škodljivega dogodka. Njihov namen je razvrstiti učinke groženj in kritičnosti sredstev v kategorije, kot so nizka, srednja in visoka.

Obe vrsti ocen tveganja imata svoje mesto v programu informacijske varnosti. Spodnja tabela povzema nekatere prednosti in slabosti posamezne vrste ocenjevanja v visokošolskem okolju:

Kvantitativna ocena tveganja

Omogoča kategoriziranje tveganj v denarnem smislu.

Olajša analizo stroškov in koristi med izbiro olajševalnih kontrol.

Zelo težko je (včasih nemogoče) dodeliti vrednost dolarja premoženju, ki se ocenjuje, in vplivu vseh vrst groženj na to premoženje.

Zahteva veliko časa in osebja.

Končne vrednosti in stroški ocene tveganja so tako dobri kot osnovni podatki.

Rezultati ocene morda niso natančni in so lahko zmedeni.

Kvalitativna ocena tveganja

Omogoča razvrščanje tveganj glede na prioriteto.

Ne zahteva veliko časa in kadrovskih virov.

V kratkem času in brez večjih stroškov lahko prepozna območja večjega tveganja.

Rezultati so približni in subjektivni.

Ne dovoljuje verjetnosti in rezultatov z uporabo denarnih meril.

Analiza stroškov in koristi med izbiro olajševalnih kontrol je subjektivna.

Številni primeri ocene tveganja, ki jih najdete v tem poglavju, so kvalitativne ocene tveganja. Za to obstaja več razlogov, nenazadnje pa čas in trud, potreben za izpolnitev kvantitativne ocene tveganja. Poleg tega številne institucije preprosto nimajo dobrega občutka za denarno vrednost svojega premoženja (tako glede stroškov kot uporabnosti za institucije). Posledično se zdi, da se bodo kvalitativne ocene tveganja bolj verjetno uporabljale v visokošolskem izobraževanju.

Za več branja je tukaj nekaj znanih okvirov za obvladovanje tveganj, ki jih lahko uporabite za ocenjevanje tveganj informacijske varnosti.

Osnovne dejavnosti obvladovanja tveganj

Ta odsek na kratko opisuje korake, ki jih je treba upoštevati pri načrtovanju in izvedbi kvalitativne ocene tveganja, ki je usklajena s štirimi osnovnimi koraki (identifikacija, ocena, odziv, spremljanje).

Priprava in sestavljanje vaše ekipe

Nekatere institucije imajo politike, ki zahtevajo ocene varnosti informacij. Poleg tega nekateri državni in zvezni zakoni zahtevajo oceno tveganja in določajo obseg ocene. Zakon o prenosljivosti in odgovornosti zdravstvenega zavarovanja (HIPAA) na primer zahteva oceno tveganja za zaščito zaščitenih zdravstvenih informacij (PHI) in opredeljuje obseg ocene tveganja kot oceno potencialnih tveganj in ranljivosti ZZZ, ki jo elektronski prenos in shranjevanje zajeti subjekt.

Zelo pomembno je, da natančno preučite obseg ocene tveganja. Ocene tveganja, ki so prevelikega obsega, lahko postanejo okorne, zahtevajo veliko sredstev in jih je težko končati. Eden od načinov, da se prepričate, da pravilno ocenjujete področje ocenjevanja, je inventarizacija sredstev IT in poslovnih procesov, ki se nanje opirajo (ne pozabite na osebje, podatke, strojno in programsko opremo ter fizične zmogljivosti v inventarju). Obseg ocene tveganja je pogosto mogoče opredeliti / izboljšati glede na to, kako se v poslovnih procesih dostopa do informacij, jih obdeluje in / ali prenaša. Pogosto jih je mogoče določiti tudi glede na posebne tehnične komponente, kot so programska oprema, strojna oprema, zbirke podatkov in omrežna tehnologija. Ne glede na to, kako določite obseg, bo pravilno in tekoče stanje sredstev neprecenljivo.

Razmislili boste tudi o oblikovanju ekipe za izvedbo ocene. Tudi kadar se ocena tveganja osredotoča na informacijsko tehnologijo ali kibernetsko varnost, ne moremo dovolj poudariti pomena vključevanja ljudi, ki niso IT, v ekipo. Za ocenjevanje tveganj je pomembno, da zastopa vse končne uporabnike, ki sodelujejo v določenem poslovnem procesu ali poteku dela ali uporabljajo določen informacijski sistem. Pri oblikovanju skupine za oceno tveganja upoštevajte člane z naslednjih področij:

  • Poslovne enote (upravne ali akademske)
  • IT enote (administrativne ali akademske)
  • Upravitelji informacijske varnosti
  • Izvršno vodstvo
Identifikacija

Ko zberete svojo ekipo in določite obseg ocenjevanja, je naslednji korak, da se lotite dela! Najprej boste želeli ugotoviti svoje ranljivosti in grožnje. Ranljivosti so slabosti vaših IT sistemov ali procesov, ki se zanašajo na te sisteme. Grožnje so vse nevarnosti, ki bi lahko izkoristile ranljivost. Če je na primer vaš podatkovni center v poplavni ravnici, je to ranljivost. Grožnja bi bila velika količina padavin, ki preplavi geografsko območje in onemogoči obratovanje podatkovnega centra.

Ranljivosti spadajo v 4 glavne kategorije:

  1. Človek (tako namerna kot nenamerna dejanja)
  2. Postopek (pomanjkanje rednih načrtov za neprekinjeno poslovanje, slabe prakse zaposlovanja)
  3. Tehnologija (dovzetnost za okoljske grožnje, negotovo oblikovanje omrežja)
  4. Objekt (nezanesljivi viri električne energije, slaba geografska lega itd.)

Podobno grožnje spadajo v 4 glavne kategorije:

  1. Človek (tako namerna kot nenamerna dejanja)
  2. Naravne (poplave, tornadi, potresi itd.)
  3. Tehnično in operativno (okvara opreme, okvare procesa, nasičenost zmogljivosti itd.)
  4. Fizično in okoljsko (izguba moči, klima)

Ko na tej stopnji razpravljate o grožnjah in ranljivostih, je dobro tudi dokumentirati nadzor ali zaščitne ukrepe, ki jih že imate za zaščito pred temi grožnjami in ranljivostmi. To bo kasneje še kako prav.

Ocenjevanje

Naslednji korak je dejanska ocena. Cilj ocene tveganja je, da vas pripravi za določanje prednosti pri odzivanju na institucionalna tveganja. Rezultati ocene so v bistvu vaše vodilo pri obravnavanju tveganj, ki ste jih ugotovili.

Ne pozabite, da je tveganje verjetnost, da bo grožnja izkoristila ranljivost in povzročila nekakšen vpliv. Večina kvalitativnih ocen tveganja nato skuša izmeriti tveganje glede na verjetnost (verjetnost, da se dogodek zgodi v instituciji v predpisanem roku) in vpliv (verjetnost, da ima dogodek neželen učinek na institucijo).

Verjetnost in vpliv je mogoče oceniti na kakršen koli način. Nekatere ocene uporabljajo lestvico nizko-srednje visoko in vsaki ravni dodelijo ocene 1, 2, 3. Glej spodnjo tabelo za primer nizko-srednje-visoko kvalitativnega točkovanja.

Rezultat Definicije Verjetnost Vpliv
1 Nizko Dogodki, ki se verjetno ne bodo zgodili v enem letu. Majhen ali nikakršen učinek na institucijo nizki stroški / ugledna škoda.
2 Srednje Dogodki, za katere je verjetno, da se bodo zgodili v enem letu. Zmeren učinek na institucijo zmerni stroški / ugledna škoda.
3 Visoko Dogodki, ki se bodo verjetno zgodili v enem letu. Pomemben učinek na institucijo hudi stroški / ugledna škoda.

Nato se ocene verjetnosti in vpliva pomnožijo (tveganje = ranljivost x nevarnost), da se ustvari ocena tveganja. Spodnja tabela prikazuje primer matrike tveganj z uporabo zgoraj prikazane metodologije točkovanja. Višji rezultati bolj kažejo na večje tveganje.

Vpliv 3 Pomembno tveganje
(Ocena = 3)
Glavno tveganje
(Ocena = 6)
Največje tveganje
(Ocena = 9)
2 Manjše tveganje
(Ocena = 2)
Pomembno tveganje
(Ocena = 4)
Glavno tveganje
(Ocena = 6)
1 Zelo majhno tveganje
(Ocena = 1)
Manjše tveganje
(Ocena = 2)
Pomembno tveganje
(Ocena = 3)
1 2 3
Verjetnost

Medtem ko institucije razmišljajo o tem, kako se spoprijeti s svojim tveganjem za varnost informacij, je treba tiste predmete z višjo oceno tveganja običajno obravnavati pred postavkami z nižjo oceno tveganja (kot dovoljujejo institucionalni viri in zmogljivosti).

Odziv

Odziv na tveganje je način, kako se institucija odloči, da se odzove na ugotovljena tveganja. Izvršno vodstvo po posvetovanju z IT in poslovnimi enotami običajno določi odziv institucije in rsquos na tveganje. Obstajajo štirje osnovni odzivi na tveganje:

  1. Izogibanje: Institucija sprejme nadzor, s katerim poskuša odpraviti ugotovljeno tveganje.
  2. Blažitev: Institucija sprejme nadzor za delno odpravo ali zmanjšanje ugotovljenega tveganja.
  3. Prenos: Institucija svoje tveganje prenese na drugo osebo (npr. Nakup zavarovanja kibernetske odgovornosti je pogost način prenosa tveganja).
  4. Sprejem: Institucija namerno in pritrdilno ne ukrepa proti potencialnemu tveganju. Institucija lahko sledi tej strategiji, kadar so stroški ublažitve ali prenosa tveganja večji od pričakovane izgube dejansko nastalega tveganja.
  • S temi pogostimi vprašanji o EDUCAUSE preberite več o zavarovanju kibernetske odgovornosti.

V tej fazi boste želeli ovrednotiti tudi nadzor, ki ga trenutno imate, in ugotoviti morebitne vrzeli. Večina ustanov je že izvedla številne protiukrepe za odpravo varnostnih groženj. Ko se ugotovijo vrzeli v teh kontrolah, obstajata dva možna načina ukrepanja. Če obstajajo dodatni nadzor, ki je izvedljiv in ga je mogoče izvesti v razumnem času, se razvijejo priporočila za odpravo teh vrzeli (izogibanje tveganju ali odziv na ublažitev). V nasprotnem primeru mora izvršno vodstvo razmisliti o sprejetju ali prenosu izpostavljenosti tveganju.

Na tej točki boste morda želeli razmisliti o razvoju akcijskega načrta za pregled institucionalnih tveganj, njihove resnosti in predlaganega institucionalnega odziva. Akcijski načrt bo dal prednost vašim ukrepom kot odgovor na oceno tveganja in lahko vsebuje naslednje informacije:

  • Izbrani nadzor (določen na podlagi izvedljivosti, učinkovitosti, koristi za institucijo in stroškov)
  • Prednostno razvrščanje
  • Potrebni viri za izvajanje izbranih kontrol
  • Odgovorna stranka
  • Datum začetka izvajanja
  • Ciljni datum zaključka za izvedbo
  • Zahteve glede obratovanja in vzdrževanja

Ko končate akcijski načrt za oceno tveganja in odziv, morate biti pozorni na koncept preostalega tveganja. Preostalo tveganje je tveganje, ki ostane po izvedbi izbranih kontrol. V praksi noben sistem informacijske tehnologije ali poslovni postopek, ki vključuje ravnanje z informacijami, ni varen in tudi z dodatnimi kontrolami morda ne bo mogoče popolnoma ublažiti ravni tveganja. To je normalno stanje. V akcijski načrt boste morda želeli zabeležiti preostalo tveganje za namene dokumentacije, da ga boste lahko občasno pregledali in zagotovili, da je za institucijo še sprejemljiv.

Spremljanje

Ocena tveganja ni zgolj projekt ali enkratni dogodek. Nenehno spremljanje se nanaša na ukrepe, ki jih mora institucija sprejeti za nenehno ocenjevanje in obravnavanje tveganj. Ker se tehnologija, obratovalni in poslovni pogoji hitro spreminjajo, je spremljanje ključni del vsakega postopka ocene tveganja. Institucije morajo biti vedno pozorne na spreminjajočo se naravo tveganj, s katerimi se srečujejo, in morajo biti pripravljene spremeniti svoj odziv na tveganje, ko se te okoliščine spremenijo.

Viri

Viri za obvladovanje tveganj v Vodniku za informacijsko varnost


Poglej si posnetek: Network Analyst: Creating Network Datasets (Oktober 2021).