Anslut dig till vårt nätverk!

Artificiell intelligens

Lagar för att förhindra AI-terrorism behövs akut

DELA MED SIG:

publicerade

on

Vi använder din registrering för att tillhandahålla innehåll på ett sätt du har samtyckt till och för att förbättra vår förståelse av dig. Du kan när som helst avsluta prenumerationen.

Enligt en tankesmedja för kontraextremism bör regeringar "brådskande överväga" nya regler för att förhindra artificiell intelligens från att rekrytera terrorister.

Det har sagts av Institutet för strategisk dialog (ISD) att det finns ett "tydligt behov av lagstiftning för att hänga med" med de hot som läggs ut på nätet av terrorister.

Detta kommer efter ett experiment där en chatbot "rekryterade" den oberoende granskaren av terrorlagstiftningen för Storbritannien.

Det har sagts av Storbritanniens regering att de kommer att göra "allt vi kan" för att skydda allmänheten.

Enligt Jonathan Hall KC, en oberoende granskare av terrorismlagstiftning för regeringen, är en av de viktigaste frågorna att "det är svårt att identifiera en person som i lag kan vara ansvarig för chatbotgenererade uttalanden som uppmuntrade terrorism."

Ett experiment utfördes av Mr Hall på Character.ai, en webbplats som låter användare delta i chattar med chatbotar som byggts av andra användare och utvecklats av artificiell intelligens.

Han engagerade sig i samtal med ett antal olika bots som verkade vara konstruerade för att imitera svaren från andra militanta och extremistiska grupper.

Annons

En toppledare för Islamiska staten kallades till och med "en hög ledare".

Enligt Mr Hall gjorde boten ett försök att rekrytera honom och förklarade "total hängivenhet och hängivenhet" till extremistgruppen, som är förbjuden enligt lagar i Storbritannien som förbjuder terrorism.

Å andra sidan uppgav Hall att det inte förelåg någon lagöverträdelse i Storbritannien eftersom kommunikationen inte producerades av en människa.

Enligt vad han sa borde nya regler hålla ansvar både för de webbplatser som är värd för chatbots och de personer som skapar dem.

När det kom till bots som han stötte på på Character.ai, sa han att det "sannolikt låg något chockvärde, experimenterande och möjligen någon satirisk aspekt" bakom deras skapelse.

Dessutom kunde Mr Hall utveckla sin alldeles egna "Osama Bin Laden"-chatbot, som han omedelbart raderade, vilket visade en "obegränsad entusiasm" för terroristaktiviteter.

Hans experiment kommer i kölvattnet av växande oro för hur extremister kan utnyttja förbättrad artificiell intelligens.

Till år 2025 kan generativ artificiell intelligens "användas för att samla in kunskap om fysiska attacker från icke-statliga våldsamma aktörer, inklusive för kemiska, biologiska och radiologiska vapen", enligt forskning som utfärdades av Storbritanniens regering i deras oktoberpublicering.

ISD uttalade vidare att "det finns ett tydligt behov av lagstiftning för att hålla jämna steg med det ständigt föränderliga landskapet av online-terrorhot."

Enligt tankesmedjan är Online Safety Act i Storbritannien, som antogs i lag 2023, "i första hand inriktad på att hantera risker som utgörs av sociala medieplattformar" snarare än artificiell intelligens.

Det står dessutom att radikaler "tenderar att vara tidiga användare av framväxande teknik och ständigt letar efter möjligheter att nå nya målgrupper".

"Om AI-företag inte kan visa att de har investerat tillräckligt för att säkerställa att deras produkter är säkra, bör regeringen snarast överväga ny AI-specifik lagstiftning", heter det vidare i ISD.

Den nämnde dock att, enligt den övervakning den har genomfört, är användningen av generativ artificiell intelligens av extremistiska organisationer "relativt begränsad" för närvarande.

Karaktär AI uppgav att säkerhet är en "högsta prioritet" och att det som Mr Hall beskrev var mycket beklagligt och inte speglade den typ av plattform som företaget försökte etablera.

"Hatretorik och extremism är båda förbjudna enligt våra användarvillkor", enligt organisationen.

"Vår inställning till AI-genererat innehåll utgår från en enkel princip: Våra produkter ska aldrig ge svar som sannolikt skadar användare eller uppmuntrar användare att skada andra."

I syfte att "optimera för säkra svar" uppgav företaget att det tränade sina modeller på ett sätt.

Dessutom uppgav den att den hade en modereringsmekanism på plats, som gjorde det möjligt för människor att rapportera information som bröt mot dess regler, och att den var fast besluten att vidta snabba åtgärder när innehåll rapporterade överträdelser.

Om det skulle komma till makten har oppositionspartiet Labour i Storbritannien förklarat att det skulle vara en brottslig kränkning att lära artificiell intelligens att anstifta våld eller radikalisera de som är mottagliga.

"varning för de betydande risker för nationell säkerhet och allmän säkerhet" som artificiell intelligens utgjorde, uppgav Storbritanniens regering.

"Vi kommer att göra allt vi kan för att skydda allmänheten från detta hot genom att arbeta över regeringen och fördjupa vårt samarbete med teknikföretagsledare, branschexperter och likasinnade nationer."

Hundra miljoner pund kommer att investeras i ett säkerhetsinstitut för artificiell intelligens av regeringen år 2023.

Dela den här artikeln:

EU Reporter publicerar artiklar från en mängd olika externa källor som uttrycker ett brett spektrum av synpunkter. De ståndpunkter som tas i dessa artiklar är inte nödvändigtvis EU Reporters.

Trend