Hvordan AI kan oprette og opdage falske nyheder



<div _ngcontent-c15 = "" innerhtml = "

Getty

Der har konsekvent været falske nyheder vokser omkring osprimært som clickbait, og har ofte en tendens til at blive viral. Dette er artikler og historier, der udelukkende er skabt for at vildlede og fejle information til troende fortællinger, der ellers ikke har nogen fortjeneste. Ifølge forskning offentliggjort i Videnskab magasinet, kunne udbredelsen af ​​sådanne medier tilskrives det faktum, at mennesker er mere tilbøjelige til at sprede løgne hurtigere end sandheden.

De primære informationskilder plejede at være journalister og autentiske medier, der skulle verificere deres kilder og de oplysninger, de modtog; desværre er det ikke altid tilfældet længere. Med de fremskridt, der er gjort inden for teknologi, er rygtet og propagandafabrikken blevet overdraget til avancerede AI-algoritmer, der er designet til at skabe troværdigt indhold – hvilket normalt ikke er sandt.

Udviklingen af ​​denne teknologi er et stort spring fra Siri, optisk tegngenkendelse eller spamfiltre, men at lære AI at genkende store mængder data og manipulere det er et farligt forslag.

Dette fører til spørgsmålet: Hvordan kan falske nyheder opdages?

Den gode nyhed er, at der er udviklet algoritmer, der er designet til at skelne mellem menneskeligt og AI-genereret indhold. På den anden side kommer disse algoritmer også med evnen til selv at skabe falske nyheder.

Falsehood Detection

Mens kunstig intelligens virker som relativt ny teknologi, har det hjulpet os med at sortere indhold i et stykke tid nu.

Det teknologi bag spamfiltre—Maskinindlæringsalgoritmer — blev oprindeligt udviklet i 1700-tallet. I dag bruger vi det til en række opgaver, såsom at kategorisere vores e-mails for at bestemme, hvilken korrespondance der er nyttig, og hvilken der bare er uopfordret massedistribution.

Dette har også ført til udviklingen af ​​neurale netværksteknologi, der fungerer som en forskelsbehandling, der kan opdage uoverensstemmelser i artikler for at bestemme ægthed.

Nogle bruger komparativ analyse mellem lignende stillinger for at kontrollere, om de indeholdte oplysninger og fakta stemmer overens med pålidelige kilder. Andre søger forskelle mellem titlen og indholdet – og identificerer derved artikler om clickbait.

En nyere algoritme er stadig Grover, som lover 92% effektivitet til at opdage ikke-menneskeligt indhold.

Hvorfor vi ikke nåede 100% nøjagtighed

Den største ulempe ved disse systemer er, at de antager, at falsk tekst altid vil have fortællende markører.

Hvor mange gange har spam-e-mail sneget sig ind i din indbakke? Selvom tallene muligvis ikke er høje, nægter man ikke, at dette har tendens til at ske til tider – primært på grund af det faktum, at skabere af spamindhold fortsætter med at udvikle sig. De finder fortsat ud af, hvilke triggere der hjælper med at markere indholdet og lærer at undgå dem.

Det samme er tilfældet med falske nyheder: Når teknologien til at fange og eliminere den bliver bedre, så gør algoritmerne, der skaber den.

Dette har skabt en uendelig frem og tilbage mellem dem, der arbejder for at begrænse spredningen af ​​falske nyheder og dem, der genererer vildledende indhold.

Hvordan neurale netværksalgoritmer lærer at differentiere

Da hovedformålet med at oprette sådanne algoritmer er at skelne mellem reel og falsk information, skal udviklere først lære systemet, hvad disse er.

De fleste af disse AI, inklusive Grover, er udviklet ved at fodre dem med eksisterende artikler fra forskellige falske nyhedsdatasæt. Dette er enorme virtuelle databiblioteker, der indeholder autentiske oplysninger og kilder, der hjælper AI med at lære mønstre for menneskelig skrivning.

Nogle af disse datasæt inkluderer:

• RealNews: Dette datasæt blev brugt til at træne Grover og har over 5.000 autentiske publikationer, der kræver 120 GB plads.

• Kaggle: Dette datasæt tager omkring 57 MB diskplads og indeholder 13.000 rækker og 20 kolonner med data.

• George McIntire: Dette navn med falske nyhedsdata, der er opkaldt efter analysen af ​​datavisualisering, kræver 31 MB diskplads.

Når denne proces er forbi, kan AI opbygge komplekse modeller, der er i stand til at identificere, hvordan bestemte ord bruges, og hvordan forskellige koncepter hænger sammen.

Fake News Creation af AI

En vigtig metode til at oprette disse modeller til diskriminerende programmer kaldes det "modstridende" system. Adversarial maskinlæring er behandle til at oprette ondsindet eller forkert informerende indhold, der kan glide forbi detektionsprogrammer.

Grover og andre AI-systemer forbedrer deres effektivitet ved at generere artikler og derefter bruge deres egne detektionsprogrammer til at evaluere artiklenes troværdighed. Hvis det oprettede indhold ikke er så overbevisende, gengiver generatorerne fortsat tekst og lærer, hvad der er ægte og hvad ikke.

Denne mulighed for at "generere" falske artikler er det, der fungerer som et dobbeltkantet sværd.

Et andet fremskridt er oprettelsen af ​​"deepfakes", som er doktreret eller kunstigt genererede videoer og fotos, der kan overlejre en persons fysik og ansigt på en anden for at få det til at virke som om de udførte en bestemt handling.

Deepfakes kan have drastiske konsekvenser ved misbrug. Fra propaganda til at tilskynde til had og vold, til at krænke offentlige personer med falske taler og dokumenterede videoer, kan deepfakes bruges til at skabe forvirring og kan resultere i et alvorligt tab af den offentlige tillid og et dårligt omdømme.

Et godt eksempel på sådan misbrug var frigivelsen af ​​en doctored video af Facebook-direktør Mark Zuckerberg & nbsp; omkring tidspunktet for hans kongreshøring.

Selvom det er vanskeligt at identificere, om sådanne medier er autentiske, er teknologien til bekæmpelse af denne form for AI-manipulation stadig i værkerne.

Kan løkken brydes?

Falske nyheder deles uden at blive undersøgt og verificeret, og sådan spredning er det, der skaber behov for mere. Faktisk er et Pew Research Center & nbsp;undersøgelse fandt, at 10% af de adspurgte indrømmede, at de delte en nyhedshistorie online, som de vidste var falske, mens 49% havde delt nyheder, som de senere fandt at være falske.

Hvad vi kan gøre for nu er at skabe opmærksomhed til at bekæmpe denne udbredelse af falske nyheder. Med andre ord må vi holde op med at dele sådanne medier for at fjerne dets troværdighed.

At opdage falske nyheder er en kompleks proces, der starter med bevidsthed og uddannelse. Du skal verificere kilden. Kvalitetsinformation er typisk fakta-kontrolleret eller peer-review. Du skal stole på den indsigt, der kommer fra velrenommerede kanaler eller stammer fra betroede forskningsselskaber.

Nu er flere mennesker end nogensinde afhængige af internettet som deres vigtigste kilde til information. Men med dette medium, der let kan forurenes med en overflod af falske oplysninger, skal alt, hvad vi lærer fra online-kilder, omhyggeligt stilles spørgsmålstegn ved og evalueres.

Forbes kommunikationsråd er et kun invitation til samfund for ledere i vellykkede PR, mediestrategi, kreative og reklamebureauer.
Kvalificerer jeg mig?

">

Falske nyheder er konstant vokset omkring os, primært som clickbait, og har ofte en tendens til at blive virale. Dette er artikler og historier, der udelukkende er skabt for at vildlede og fejle information til troende fortællinger, der ellers ikke har nogen fortjeneste. I henhold til forskning offentliggjort i Videnskab magasinet, kunne udbredelsen af ​​sådanne medier tilskrives det faktum, at mennesker er mere tilbøjelige til at sprede løgne hurtigere end sandheden.

De primære informationskilder plejede at være journalister og autentiske medier, der skulle verificere deres kilder og de oplysninger, de modtog; desværre er det ikke altid tilfældet længere. Med de fremskridt, der er gjort inden for teknologi, er rygtet og propagandafabrikken blevet overdraget til avancerede AI-algoritmer, der er designet til at skabe troværdigt indhold – hvilket normalt ikke er sandt.

Udviklingen af ​​denne teknologi er et stort spring fra Siri, optisk tegngenkendelse eller spamfiltre, men at lære AI at genkende store mængder data og manipulere det er et farligt forslag.

Dette fører til spørgsmålet: Hvordan kan falske nyheder opdages?

Den gode nyhed er, at der er udviklet algoritmer, der er designet til at skelne mellem menneskeligt og AI-genereret indhold. På den anden side kommer disse algoritmer også med evnen til selv at skabe falske nyheder.

Falsehood Detection

Mens kunstig intelligens virker som relativt ny teknologi, har det hjulpet os med at sortere indhold i et stykke tid nu.

Teknologien bag spamfiltre – maskinlæringsalgoritmer – blev oprindeligt udviklet i 1700'erne. I dag bruger vi det til en række opgaver, såsom at kategorisere vores e-mails for at bestemme, hvilken korrespondance der er nyttig, og hvilken der bare er uopfordret massedistribution.

Dette har også ført til udviklingen af ​​neurale netværksteknologi, der fungerer som en forskelsbehandling, der kan opdage uoverensstemmelser i artikler for at bestemme ægthed.

Nogle bruger komparativ analyse mellem lignende stillinger for at kontrollere, om de indeholdte oplysninger og fakta stemmer overens med pålidelige kilder. Andre søger forskelle mellem titlen og indholdet – og identificerer derved artikler om clickbait.

En nyere algoritme er stadig Grover, der lover 92% effektivitet i detektering af ikke-menneskeligt indhold.

Hvorfor vi ikke nåede 100% nøjagtighed

Den største ulempe ved disse systemer er, at de antager, at falsk tekst altid vil have fortællende markører.

Hvor mange gange har spam-e-mail sneget sig ind i din indbakke? Selvom tallene muligvis ikke er høje, nægter man ikke, at dette har tendens til at ske til tider – primært på grund af det faktum, at skabere af spamindhold fortsætter med at udvikle sig. De finder fortsat ud af, hvilke triggere der hjælper med at markere indholdet og lærer at undgå dem.

Det samme er tilfældet med falske nyheder: Når teknologien til at fange og eliminere den bliver bedre, så gør algoritmerne, der skaber den.

Dette har skabt en uendelig frem og tilbage mellem dem, der arbejder for at begrænse spredningen af ​​falske nyheder og dem, der genererer vildledende indhold.

Hvordan neurale netværksalgoritmer lærer at differentiere

Da hovedformålet med at oprette sådanne algoritmer er at skelne mellem reel og falsk information, skal udviklere først lære systemet, hvad disse er.

De fleste af disse AI, inklusive Grover, er udviklet ved at fodre dem med eksisterende artikler fra forskellige falske nyhedsdatasæt. Dette er enorme virtuelle databiblioteker, der indeholder autentiske oplysninger og kilder, der hjælper AI med at lære mønstre for menneskelig skrivning.

Nogle af disse datasæt inkluderer:

• RealNews: Dette datasæt blev brugt til at træne Grover og har over 5.000 autentiske publikationer, der kræver 120 GB plads.

• Kaggle: Dette datasæt tager omkring 57 MB diskplads og indeholder 13.000 rækker og 20 kolonner med data.

• George McIntire: Dette navn med falske nyhedsdata, der er opkaldt efter analysen af ​​datavisualisering, kræver 31 MB diskplads.

Når denne proces er forbi, kan AI bygge komplekse modeller, der er i stand til at identificere, hvordan bestemte ord bruges, og hvordan forskellige koncepter er forbundet sammen.

Fake News Creation af AI

En vigtig metode til at oprette disse modeller til diskriminerende programmer kaldes det "modstridende" system. Adversarial maskinlæring er processen med at skabe skadeligt eller forkert informationsindhold, der kan glide forbi detektionsprogrammer.

Grover og andre AI-systemer forbedrer deres effektivitet ved at generere artikler og derefter bruge deres egne detektionsprogrammer til at evaluere artiklenes troværdighed. Hvis det oprettede indhold ikke er så overbevisende, gengiver generatorerne fortsat tekst og lærer, hvad der er ægte og hvad ikke.

Denne mulighed for at "generere" falske artikler er det, der fungerer som et dobbeltkantet sværd.

Et andet fremskridt er oprettelsen af ​​"deepfakes", som er doktreret eller kunstigt genererede videoer og fotos, der kan overlejre en persons fysik og ansigt på en anden for at få det til at virke som om de udførte en bestemt handling.

Deepfakes kan have drastiske konsekvenser ved misbrug. Fra propaganda til at tilskynde til had og vold, til at krænke offentlige personer med falske taler og dokumenterede videoer, kan deepfakes bruges til at skabe forvirring og kan resultere i et alvorligt tab af den offentlige tillid og et dårligt omdømme.

Et vigtigt eksempel på sådan misbrug var frigivelsen af ​​en doktreret video af Facebook-CEO Mark Zuckerberg omkring tidspunktet for hans kongreshøring.

Selvom det er vanskeligt at identificere, om sådanne medier er autentiske, er teknologien til bekæmpelse af denne form for AI-manipulation stadig i værkerne.

Kan løkken brydes?

Falske nyheder deles uden at blive undersøgt og verificeret, og sådan spredning er det, der skaber behov for mere. Faktisk fandt en undersøgelse fra Pew Research Center ud, at 10% af de adspurgte indrømmede, at de delte en nyhedshistorie online, som de vidste var falske, mens 49% havde delt nyheder, som de senere fandt at være falske.

Hvad vi kan gøre for nu er at skabe opmærksomhed til at bekæmpe denne udbredelse af falske nyheder. Med andre ord må vi holde op med at dele sådanne medier for at fjerne dets troværdighed.

At opdage falske nyheder er en kompleks proces, der starter med bevidsthed og uddannelse. Du skal verificere kilden. Kvalitetsinformation er typisk fakta-kontrolleret eller peer-review. Du skal stole på den indsigt, der kommer fra velrenommerede kanaler eller stammer fra betroede forskningsselskaber.

Nu er flere mennesker end nogensinde afhængige af internettet som deres vigtigste kilde til information. Men med dette medium, der let kan forurenes med en overflod af falske oplysninger, skal alt, hvad vi lærer fra online-kilder, omhyggeligt stilles spørgsmålstegn ved og evalueres.