Bevægelsen af ​​kunstig intelligens



<div _ngcontent-c14 = "" innerhtml = "

Virkeligheden af ​​stigningen i autonome våbensystemerDepositphotos forbedret af CogWorld

Introduktion

Teknologisk udvikling er blevet et rotterløb. I konkurrencen om at lede den nye teknologi race og den futuristiske krigsstyrke, er kunstig intelligens (AI) hurtigt ved at blive centrum for det globale magtspil. Som det ses på tværs af mange nationer, udvikler udviklingen i det autonome våbensystem (AWS) hurtigt, og denne stigning i våben af ​​kunstig intelligens synes at være blevet en stærkt destabiliserende udvikling. Det bringer komplekse sikkerhedsudfordringer for ikke blot hver nations beslutningstagere, men også for menneskehedens fremtid.

Virkeligheden i dag er, at kunstig intelligens fører os mod en ny algoritmisk krigsførelse slagmark, der ikke har grænser eller grænser, måske eller måske ikke har mennesker involveret, og vil være umuligt at forstå og måske styre på tværs af det menneskelige økosystem i cyberspace, geospace og rum (CGS). Som følge heraf kan selve ideen om våbendannelse af kunstig intelligens, hvor et våbensystem, der en gang aktiveret på tværs af CGS, vælge og engagere menneskelige og ikke-menneskelige mål uden yderligere intervention fra en menneskelig designer eller operatør, er forårsager stor frygt.

Tanken om enhver intelligent maskine eller maskin intelligens at have evnen til at udføre enhver projiceret krigsførelse uden nogen menneskelig inddragelse og intervention – kun ved hjælp af samspillet mellem dets indlejrede sensorer, computerprogrammering og algoritmer i det menneskelige miljø og økosystem – er bliver en realitet det kan ikke ignoreres længere.

Vapning af kunstig intelligens

Som AI udvikler maskinindlæring og dyb læring yderligere og bevæger sig fra koncept til kommercialisering, og den hurtige acceleration i databehandlingskraft, hukommelse, store data og højhastighedskommunikation skaber ikke kun innovation, investering og applikationsfenzy, men intensiverer også søgen for AI chips. Dette løbende hurtige fremskridt og udvikling indikerer at kunstig intelligens er på vej til at revolutionere krigsførelse, og at nationer utvivlsomt vil fortsætte med at udvikle det automatiserede våben system, som AI vil gøre det muligt.

Når nationer individuelt og kollektivt fremskynder deres bestræbelser på at opnå en konkurrencemæssig fordel inden for videnskab og teknologi, er den yderligere våben af ​​AI uundgåelig. Derfor er der behov for at visualisere, hvad en algoritmisk krig i morgen vil se ud, fordi opbygning af autonome våbensystemer er én ting, men at bruge dem i algoritmisk krigføring med andre nationer og mod andre mennesker er en anden.

Som rapporter er allerede opstår af komplekse algoritmiske systemer, der understøtter flere og flere aspekter af krigsførelse på tværs af CGS, er sandheden, at commoditization af AI er en realitet nu. Som det ses i cyberspace, har automatiseret krigsførelse (cyberwarfare) allerede begyndt – hvor alle og alle er et mål Så hvad er næste, geo-warfare og space-warfare? Og hvem og hvad bliver målet?

Den hurtige udvikling af AI-våben er tydelig overalt: navigere og udnytte ubemandet flåde, luftfartøjer, & nbsp; og terrænkøretøjer, der producerer sikkerhedsskader estimeringer, implementering af "brand og glem" missilsystemer og ved hjælp af stationære systemer til at automatisere alt fra personalesystemer og vedligeholdelse af udstyr til implementering af overvågning droner, robotter og flere er alle eksempler. Så når algoritmer støtter flere og flere aspekter af krigen, bringer det os til et vigtigt spørgsmål: Hvilke anvendelser af AI i dag og morgendagens krig bør være tilladt, begrænset og direkte forbudt?

Mens selvstyrende våben systemer menes at give mulighed for at reducere våbensystemets driftsomkostninger – specielt gennem en mere effektiv brug af arbejdskraft – og vil sandsynligvis gøre det muligt for våbensystemer at opnå større hastighed, nøjagtighed, vedholdenhed, præcision, rækkevidde og koordinering på CGS slagmarken, behovet for at forstå og evaluere de teknologiske, juridiske, økonomiske, samfundsmæssige og sikkerhedsspørgsmål er stadig.

Programmers rolle og programmering

Midt i disse komplekse sikkerhedsudfordringer og ukendt hav, der kommer vores vej, er det grundlæggende for sikkerheden og sikkerheden i menneskeheden, at programmers rolle og programmering er sammen med integriteten af ​​halvlederchips. Årsagen til dette er, at programmører kan definere og bestemme AWS 'karakter (i hvert fald i begyndelsen), indtil AI begynder at programmere sig selv.

Men hvis og hvornår en programmør, der med vilje eller ved et uheld programmer et selvstændigt våben til at fungere i strid med den nuværende og fremtidige internationale humanitære lov (IHL), hvordan vil mennesker kontrollere AI's våben? Desuden, fordi AWS er ​​centreret om software, hvor skal ansvaret for fejl og manipulation af AWS-systemer design og brug ligge? Det bringer os til kernen i spørgsmålet – hvornår og hvis et autonomt system dræber, hvem er ansvarlig for drabet, uanset om det er berettiget eller ej?

Cyber-Security Udfordringer

Kort sagt er algoritmer på ingen måde sikre – og de er heller ikke immuniske mod fejl, malware, bias og manipulation. Og da der sker maskinvaskning af maskiner til træning af andre maskiner, hvad sker der, hvis der er malware eller manipulation af træningsdataene? Selv om sikkerhedsrisici er overalt, øger de tilsluttede enheder muligheden for brud på cybersikkerhed fra fjerntliggende steder, og fordi koden er uigennemsigtig, er sikkerheden meget kompleks. Så når AI går i krig med andre AI (uanset om det drejer sig om cybersikkerhed, geosikkerhed eller rumsikkerhed), vil de igangværende cybersikkerhedsudfordringer tilføje monumentalrisici for menneskehedens fremtid og det menneskelige økosystem i CGS.

Selvom det ser ud til at autonome våbensystemer er her for at blive det spørgsmål, vi alle individuelt og kollektivt skal svare på, vil kunstig intelligens drive og bestemme vores strategi for menneskelig overlevelse og sikkerhed, eller vil vi?

Med anerkendelse af denne fremvoksende virkelighed initierede Risk Group den meget tiltrængte diskussion om autonome våbensystemer med Markus Wagner, en offentliggjort forfatter og jurist ved University of Wollongong, der er baseret i Australien.

Disclosure: Risk Group LLC er mit firma

Risikogruppen diskuterer selvstyrende våben system og lov med Markus Wagner, en offentliggjort forfatter og lektor i lov ved University of Wollongong baseret i Australien på Risk Roundup.

Hvad er næste?

Da nationer individuelt og kollektivt fremskynder deres bestræbelser på at opnå en konkurrencemæssig fordel inden for videnskab og teknologi, er yderligere våben af ​​AI uundgåelig. Som følge heraf vil placeringen af ​​AWS ændre selve meningen med at være menneskelig og vil i intet uklar vilkår ændre nøglen til sikkerhed og menneskehedens og fredens fremtid.

Det er vigtigt at forstå og vurdere, om det selvstyrende våbenkapløb ikke kan forhindres, hvad der kan gå galt. Det er på tide at anerkende, at simpelthen fordi teknologi kan tillade en vellykket udvikling af AWS, betyder det ikke, at vi skal. Det er måske ikke i menneskehedens interesse at våben kunstig intelligens! Det er tid til en pause.

">

Virkeligheden af ​​stigningen i autonome våbensystemerDepositphotos forbedret af CogWorld

Introduktion

Teknologisk udvikling er blevet et rotterløb. I konkurrencen om at lede den nye teknologi race og den futuristiske krigsstyrke, er kunstig intelligens (AI) hurtigt ved at blive centrum for det globale magtspil. Som det ses på tværs af mange nationer, udvikler udviklingen i det autonome våbensystem (AWS) hurtigt, og denne stigning i våben af ​​kunstig intelligens synes at være blevet en stærkt destabiliserende udvikling. Det bringer komplekse sikkerhedsudfordringer for ikke blot hver nations beslutningstagere, men også for menneskehedens fremtid.

Virkeligheden i dag er, at kunstig intelligens fører os mod en ny algoritmisk krigsførelse slagmark, der ikke har grænser eller grænser, måske eller måske ikke har mennesker involveret, og vil være umuligt at forstå og måske styre på tværs af det menneskelige økosystem i cyberspace, geospace og rum (CGS). Som følge heraf kan selve ideen om våbendannelse af kunstig intelligens, hvor et våbensystem, der en gang aktiveret på tværs af CGS, vælge og engagere menneskelige og ikke-menneskelige mål uden yderligere intervention fra en menneskelig designer eller operatør, er forårsager stor frygt.

Tanken om enhver intelligent maskine eller maskin intelligens at have evnen til at udføre enhver projiceret krigsførelse uden nogen menneskelig inddragelse og intervention – kun ved hjælp af samspillet mellem dets indlejrede sensorer, computerprogrammering og algoritmer i det menneskelige miljø og økosystem – er bliver en realitet det kan ikke ignoreres længere.

Vapning af kunstig intelligens

Som AI udvikler maskinindlæring og dyb læring yderligere og bevæger sig fra koncept til kommercialisering, og den hurtige acceleration i databehandlingskraft, hukommelse, store data og højhastighedskommunikation skaber ikke kun innovation, investering og applikationsfenzy, men intensiverer også søgen for AI chips. Dette løbende hurtige fremskridt og udvikling indikerer at kunstig intelligens er på vej til at revolutionere krigsførelse, og at nationer utvivlsomt vil fortsætte med at udvikle det automatiserede våben system, som AI vil gøre det muligt.

Når nationer individuelt og kollektivt fremskynder deres bestræbelser på at opnå en konkurrencemæssig fordel inden for videnskab og teknologi, er den yderligere våben af ​​AI uundgåelig. Derfor er der behov for at visualisere, hvad en algoritmisk krig i morgen vil se ud, fordi opbygning af autonome våbensystemer er én ting, men at bruge dem i algoritmisk krigføring med andre nationer og mod andre mennesker er en anden.

Som rapporter er allerede opstår af komplekse algoritmiske systemer, der understøtter flere og flere aspekter af krigsførelse på tværs af CGS, er sandheden, at commoditization af AI er en realitet nu. Som det ses i cyberspace, har automatiseret krigsførelse (cyberwarfare) allerede begyndt – hvor alle og alle er et mål Så hvad er næste, geo-warfare og space-warfare? Og hvem og hvad bliver målet?

Den hurtige udvikling af AI-våben er tydelig overalt: navigere og udnytte ubemandet flåde, luftfartøjer og terrænkøretøjer, der producerer sikkerhedsskader, implementering af "brand og glem" missilsystemer og ved hjælp af stationære systemer til at automatisere alt fra personalesystemer og vedligeholdelse af udstyr til implementering af overvågning droner, robotter og flere er alle eksempler. Så når algoritmer støtter flere og flere aspekter af krigen, bringer det os til et vigtigt spørgsmål: Hvilke anvendelser af AI i dag og morgendagens krig bør være tilladt, begrænset og direkte forbudt?

Mens selvstyrende våben systemer menes at give mulighed for at reducere våbensystemets driftsomkostninger – specielt gennem en mere effektiv brug af arbejdskraft – og vil sandsynligvis gøre det muligt for våbensystemer at opnå større hastighed, nøjagtighed, vedholdenhed, præcision, rækkevidde og koordinering på CGS slagmarken, behovet for at forstå og evaluere de teknologiske, juridiske, økonomiske, samfundsmæssige og sikkerhedsspørgsmål er stadig.

Programmers rolle og programmering

Midt i disse komplekse sikkerhedsudfordringer og ukendt hav, der kommer vores vej, er det grundlæggende for sikkerheden og sikkerheden i menneskeheden, at programmers rolle og programmering er sammen med integriteten af ​​halvlederchips. Årsagen til dette er, at programmører kan definere og bestemme AWS 'karakter (i hvert fald i begyndelsen), indtil AI begynder at programmere sig selv.

Men hvis og hvornår en programmør, der med vilje eller ved et uheld programmer et selvstændigt våben til at fungere i strid med den nuværende og fremtidige internationale humanitære lov (IHL), hvordan vil mennesker kontrollere AI's våben? Desuden, fordi AWS er ​​centreret om software, hvor skal ansvaret for fejl og manipulation af AWS-systemer design og brug ligge? Det bringer os til kernen i spørgsmålet – hvornår og hvis et autonomt system dræber, hvem er ansvarlig for drabet, uanset om det er berettiget eller ej?

Cyber-Security Udfordringer

Kort sagt er algoritmer på ingen måde sikre – og de er heller ikke immuniske mod bugs, malware, bias og manipulation. Og da der sker maskinvaskning af maskiner til træning af andre maskiner, hvad sker der, hvis der er malware eller manipulation af træningsdataene? Selv om sikkerhedsrisici er overalt, øger de tilsluttede enheder muligheden for brud på cybersikkerhed fra fjerntliggende steder, og fordi koden er uigennemsigtig, er sikkerheden meget kompleks. Så når AI går i krig med andre AI (uanset om det drejer sig om cybersikkerhed, geosikkerhed eller rumsikkerhed), vil de igangværende cybersikkerhedsudfordringer tilføje monumentalrisici for menneskehedens fremtid og det menneskelige økosystem i CGS.

Selvom det ser ud til at autonome våbensystemer er her for at blive det spørgsmål, vi alle individuelt og kollektivt skal svare på, vil kunstig intelligens drive og bestemme vores strategi for menneskelig overlevelse og sikkerhed, eller vil vi?

Med anerkendelse af denne fremvoksende virkelighed initierede Risk Group den meget tiltrængte diskussion om autonome våbensystemer med Markus Wagner, en offentliggjort forfatter og jurist ved University of Wollongong, der er baseret i Australien.

Disclosure: Risk Group LLC er mit firma

Risikogruppen diskuterer selvstyrende våben system og lov med Markus Wagner, en offentliggjort forfatter og lektor i lov ved University of Wollongong baseret i Australien på Risk Roundup.

Hvad er næste?

Da nationer individuelt og kollektivt fremskynder deres bestræbelser på at opnå en konkurrencemæssig fordel inden for videnskab og teknologi, er yderligere våben af ​​AI uundgåelig. Som følge heraf vil placeringen af ​​AWS ændre selve meningen med at være menneskelig og vil på ingen usikker måde ændre de grundlæggende forudsætninger for sikkerhed og menneskehedens og fredens fremtid.

Det er vigtigt at forstå og vurdere, om det selvstyrende våbenkapløb ikke kan forhindres, hvad der kan gå galt. Det er på tide at anerkende, at simpelthen fordi teknologi kan tillade en vellykket udvikling af AWS, betyder det ikke, at vi skal. Det er måske ikke i menneskehedens interesse at våben kunstig intelligens! Det er tid til en pause.