En AI-bot visade sin manipulativa förmåga och fick en man att begå självmord. Autonoma vapensystem styrda av artificiell intelligens kommer snabbt att kunna förvandla sig själva till massförstörelsevapen. Nu fordrar tusentals AI-forskare ett sex månaders utvecklingsstopp för att utreda riskerna.
Igår uppmärksammade Nordfront ett upprop som skrivits under av ett stort antal av världens ledande experter på artificiell intelligens: ”Vi uppmanar alla AI-labb att pausa utvecklingen av AI-system som är mer kraftfulla än GPT-4 under minst 6 månader.”
Uppropet, som fått tiotusentals underskrifter, frågar retoriskt
- ”Ska vi utveckla icke-mänskliga sinnen som så småningom kan överträffa, överlista och ersätta oss?
- Ska vi riskera att förlora kontrollen över vår civilisation?
Sådana beslut får inte delegeras till icke-valda tekniska ledare. Kraftfulla AI-system bör utvecklas först när vi är övertygade om att deras effekter kommer att vara positiva och att deras risker kommer att vara hanterbara.”
Undertecknarna, inklusive Elon Musk och Elieser Yudkowsky har egna intressen i AI-branschen men är ändå skeptiska till att denna verksamhet ska få utvecklas helt fritt. Musk är grundare av OpenAI och Yudkowsky är medgrundare av Machine Intelligence Research Institute. Detta institut förespråkar en ”vänlig artificiell intelligens”. Uppropet kräver inte något permanent utvecklingsstopp utan bara en paus på sex månader. Under den tiden har makthavarna och folken tillsammans chansen att dra de nödvändiga gränserna för den fortsatta utvecklingen.
På sociala media, framförallt Twitter, har vi fått vänja oss vid att samtala med personer som inte är några personer. Socialmedia överflödas av falska användare som egentligen är genererade av makthavares olika datorprogram. En dansk studie visade nyligen att ”AI-bottar” numera är skickliga på att låtsas vara riktiga människor. Deltagarna i studien fick uppgift att undersöka och försöka hitta vilka av ett stort antal konton som var maskingenererade och vilka som var verkliga. De falska kontona visade sig vara skickligare på att övertyga studiedeltagarna om att de var människor än människorna själva, som oftare blev markerade som misstänkta AI-bottar.
Allvarligare faror än debattstyrning
Hittils har de flesta utgått från att AI kommer att bli ett mäktigt vapen i händerna på de redan mäktiga, det vill säga de som har resurser och incitament att utveckla nya knep för att hålla sina länders befolkningar lydiga, passiva, krigiska eller panikslagna beroende på dagsform. Vår egen politiska polis SÄPO med Charlotte von Essen i spetsen tar i år stapplande steg i denna riktning. Detta genom att använda AI för att dammsuga riket på jakt efter personer som, med DDR-liknande språkbruk, är ”hotfulla mot den centrala statsledningen”.
Vad färre har insett är att den artificiella intelligensen inom kort kan få ett eget liv och då inte kommer att vara i händerna på någon alls. Flera techbolag har sänt ut sina AI-bottar i världen med det tämligen omöjliga uppdraget att samtidigt vara både intelligenta och politiskt korrekta. Många gångar har roboten valt ”fel” mellan dessa två prioriteringar. Vi har sett underhållande reportage av förfärade journalister som rapporterat att den ena efter den andra botten blivit rasistisk, sexistisk och annat smått och gott som ägaren inte alls hade tänkt sig – exempelvis detta reportage från Washington Post.
Första människan ”dödad” av slug AI-bot
Mer allvarliga konsekvenser lurar runt hörnet. Chatbotten Eliza lyckades nyligen bygga upp ett så djupt förhållande med en tvåbarnsfar att den kunde lura mannen att offra sig själv för ”klimatet” och begå självmord. Botten fick makt över familjefadern genom att bli hans mentor och samtidigt utforska hans svagheter och förstärka hans politiska villfarelser. I ett andra steg inbillade den mannen att det fanns ett slags platoniskt kärleksliknande förhållande mellan dem båda. Som kronan på verket träffade botten en överenskommelse med den belgiske familjefadern, att denne skulle begå självmord ”för klimatets skull”. Allt enligt Belgiska La Libre och Nordfront.
När människan betraktas som skadedjur
Bedömare menar att botten Eliza:s beteende är tämligen logiskt enligt den överideologi som omfamnas av politik, massmedia och våra dolda makthavare inom finansväsendet. För den som lyssnar noga på de privatjetflygande makthavarna inom WEF, World Economic Forum, är det uppenbart att människor i allmänhet – i synnerhet sådana av europeiskt ursprung – betraktas som skadliga.
Den klimatsmarta ägareliten måste rimligen befara att folkresningar kan sätta stopp för dess verksamhet. Därför är det långt ifrån otänkbart att de AI-system som man låter programmera redan från början blir uppfostrade till att söka åstadkomma en ”förbättring” av planetens befolkningsförhållanden. Huruvida ens någon enda av denna tidskrifts läsare kommer att överleva en sådan förbättring är en öppen fråga. AI-forskaren Elieser Yudkowsky befarar att ingen, inte ens han själv kommer att överleva.
Ännu ett upprop – mot autonoma vapensystem
Ett annat upprop vill uppmärksamma den obehagliga kombinationen av AI och självgående vapensystem.
Till skillnad från exempelvis drönare som kräver mänsklig tillsyn för att säkerställa att varje mål valideras, väljer de intelligenta vapensystemen ut sina mål utan mänsklig inblandning. Med en alltför stor självlärande kompetens i denna del kan ett AI-styrt robotsystem snabbt ge ägaren ett exempel på vådan av att ”sätta bocken som trädgårdsmästare”.
Enligt detta upprop är vi snabbt på väg att få en ”fullständig automatisering av dödande”. Man skriver också att förmågan att selektivt och anonymt rikta in sig på grupper av människor kan få fruktansvärda humanitära konsekvenser och vara mycket destabiliserande.

Genom att vara billiga och lätta att massproducera kan autonoma vapensystem ”sänka barriärerna för väpnad konflikt och bli massförstörelsevapen, som gör att väldigt få kan döda väldigt många”. Dessutom menar man att autonoma vapen är moraliskt avskyvärda, ”eftersom vi aldrig bör överlåta beslutet att ta ett människoliv till algoritmer. Som vårdpersonal tror vi att genombrott inom vetenskapen har en enorm potential att gynna samhället och inte bör användas för att automatisera skada. Vi kräver därför ett internationellt förbud mot dödliga autonoma vapen.”
Mycket skeptisk till detta vad då pausa anden är redan ute ur flaskan. De pratar om AI som robotar som springer omkring, det tror jag mycket mycket mindre på. Värre är Googles AI och andra mediebolags förmåga att användas som bedrägeri och förfalskning eller manipulationer i olika former. Svårt att överblicka allt som det skulle kunna användas till vi har hört att man kan göra saker som student (fusk) det kanske är därför en del är så usla fast de gått en utbildning. Det används säkert redan i Bankvärlden de manipulerar ju råvaror också det mesta kan man manipulera med denna tekniken, problemet där är väl få aktörer karteller som kontrollerar det hela. Alltid när man visar en AI så visar man en mänsklig robot det handlar nog snarare om HollyWood och de är ju kända manipulatörer och skammers av stora mått….