Anslut dig till vårt nätverk!

Företag

Verifiera #BigTech-löften

DELA MED SIG:

publicerade

on

Vi använder din registrering för att tillhandahålla innehåll på ett sätt du har samtyckt till och för att förbättra vår förståelse av dig. Du kan när som helst avsluta prenumerationen.

Mönstret i Silicon Valley är för bekant. Gå snabbt, bryt saker, be om ursäkt, lova att göra bättre och upprepa. Efter nästan två decennier av detta mönster är vi utmattade, skriver Dr Hany Farid.

Vi är utmattade av spektakulära misslyckanden när det gäller att skydda användarnas integritet, vilket tillåter annonsörer att olagligt rikta in sig på bostäder och jobbannonser baserat på ras och ålder, främja falska nyheter utformade för att hetsa till våld och störa val, och låta terrorgrupper fortsätta att radikalisera och rekrytera online. Vi är utmattade av ursäkterna och löften om att göra bättre.

Politiker och annonsörer har varit alltmer högljudda i sin frustration över sociala medieföretags brist på aggressivt ta itu med allt från radikaliserande, terrorrelaterat material till sexuellt explicit innehåll riktat mot barn. Som svar meddelade YouTube bara förra veckan att de hade tagit bort över 8 miljoner videor under de senaste tre månaderna, varav majoriteten var spam eller barnförbjudet innehåll. Totalt 6.7 miljoner av det raderade innehållet identifierades automatiskt av maskiner, varav 76 % togs bort innan de fick en enda visning.

YouTube rapporterar också att mer än hälften av videorna med våldsbejakande extremism togs bort med färre än 10 visningar. Vi får dock inte veta hur många av dessa videor som togs ner, och vi vet naturligtvis inte hur många videor som finns kvar online efter att ha missats av YouTubes algoritmer eller mänskliga moderatorer.

På ytan låter dessa siffror lovande, men en närmare titt målar upp en annan bild. Under en sjuveckorsperiod mellan 8 mars och 26 april i år använde vi vår egen teknik för att identifiera närvaron på YouTubes plattform av bara 256 tidigare identifierade ISIS-genererade terrorrelaterade videor. Här är vad vi lärde oss:

  1. Inte mindre än 942 ISIS-videor laddades upp till YouTube.

    Annons
  2. Dessa 942 videor fick totalt 134,644 XNUMX visningar.

  3. Även om 74 % av videorna låg kvar på YouTube i mindre än två timmar, fick dessa videor i genomsnitt 12 visningar vardera inom detta tidsfönster, med ett maximalt antal visningar på 252.

  4. För videor som var tillgängliga i mer än två timmar var det genomsnittliga antalet visningar under ett 48-timmarsfönster 515 med ett maximalt antal visningar på 9,589 48 (vi slutade spåra visningar efter ett XNUMX-timmarsfönster).

  5. Dessa 942 videor laddades upp av 157 olika YouTube-konton, av vilka några laddade upp så många som 70 videor innan kanalen antingen togs bort av YouTubes administratörer eller raderades av användaren.

  6. Ungefär 91 % av videorna som vi hittade laddades upp mer än en gång och låg online åtminstone tillräckligt länge för att vi skulle hitta dem.

För att bara ge ett specifikt exempel - en video med titeln Jaga dem O' Monoteist, som ursprungligen släpptes av ISIS somaliska medlemsförbund den 25 december 2017, uppmuntrar skjutvapen och fordonsattacker i västländer, inklusive Paris och London. Den här videon laddades upp på YouTube den 10 mars 2018, var tillgänglig i 29 timmar och fick 405 visningar innan den togs bort. Den här videon laddades upp igen den 11 mars av ett annat konto och var tillgänglig i 39 timmar och fick 113 visningar innan den togs bort igen. Den här videon laddades sedan upp igen och raderades minst sex gånger till under sjuveckorsperioden och fick tillsammans ytterligare 875 visningar.

Några mönster har framkommit från vår analys. Trots påståenden om att den använder automatiska verktyg för att hitta och ta bort terrorrelaterat innehåll, ser vi att samma innehåll upprepade gånger laddas upp till YouTube, ofta från samma konto. Det här innehållet finns online var som helst från timmar till dagar och ses hundratals till tusentals gånger. När det har tagits bort laddas samma innehåll sedan helt enkelt upp igen, vilket betyder att det är tillgängligt hela tiden. Om en liten icke-vinstdrivande organisation som Counter Extremism Project med begränsade ekonomiska resurser och datorresurser kan hitta innehåll på dessa plattformar, ser vi ingen anledning till varför plattformarna själva inte kan göra samma sak.

Summan av kardemumman är att för mycket terrorrelaterat innehåll hittar sin väg online, det stannar online för länge och det fortsätter att dyka upp igen även om det så småningom tas ner.

Även om vi har sett vissa framsteg jämfört med för några år sedan, finns det fortfarande betydande luckor i utvecklingen och distributionen av teknik för att snabbt och korrekt hitta och ta bort terrorrelaterat innehåll. Förutom att förbättra befintlig teknik måste industrin göra mer för att utveckla och distribuera ny teknik för att möta ett ständigt föränderligt landskap – och detta måste gå längre än vaga löften om att använda AI om fem till tio år från nu för att lösa de problem vi är står inför idag.

Politiker, annonsörer och allmänheten måste fortsätta att pressa teknikföretag att ta mer ansvar för den direkta och mätbara skadan som kommer från övergreppen på deras plattformar. Om dessa teknikföretag inte reagerar mer effektivt bör beslutsfattare överväga böter (som tyskarna har) och annonsörer bör överväga att hålla inne reklamdollar (som Unilever har hotat att göra).

Dr. Hany Farid är Albert Bradley 1915 tredje århundradet professor och ordförande i datavetenskap vid Dartmouth College och en senior rådgivare till Counter Extremism Project.

Dela den här artikeln:

EU Reporter publicerar artiklar från en mängd olika externa källor som uttrycker ett brett spektrum av synpunkter. De ståndpunkter som tas i dessa artiklar är inte nödvändigtvis EU Reporters.

Trend