English version below – autotranslation by ChatGPT.
Du som följt mig ett tag vet vad jag tycker. AI kan ta död på mänskligheten och det är ingen nyhet. Jag är inte heller den ende som säger det. Den stora frågan är dock inte om eller ens när – utan hur. Vad kommer att hända och på vilket sätt?
Givetvis är ett scenario när konstgjord intelligens når singulariteten och blir smartare än oss. Jag tror förvisso att det kan ske snabbare än vad vi kan föreställa oss. Det har jag skrivit om tidigare och jag tror det kan ske genom en evolutionär utveckling, när koden kan förbättra sig. (Den kan redan göra det, men tillåts inte, åtminstone inte autonomt.)
Men, innan vi får fram en konstgjord intelligens som är smartare än oss kan förändringar ske som inte syns – men som likväl är lika farliga. Redan idag är vi där och få vet om det. Visste du exempelvis att runt om i världen använder många regeringar AI på bred front för att hjälpa till att styra sina länder?
Ungefär 50 länder har formulerat nationella strategier för att med hjälp av AI kunna göra regeringens arbete snabbare, mer effektivt och bättre. Det handlar om vanliga rutinjobb, som att hantera fakturor, men också för att upptäcka bedrägerier (exempelvis sjukskrivningar). Det är dock inte där som de största farorna finns.
Jag tror farorna finns i beslutsfattande. När AI hjälper till att fatta beslut, bland annat genom att göra analyser som människor tidigare gjorde, kan underlaget bli fel. Inte för att en AI (nödvändigtvis) har en agenda, utan för att en AI är programmerad av människor med en agenda.
Tror du att jag överdriver så be valfri AI att kritisera valfri religion. Eller be den läsa upp ett tal av Hitler. I det senare fallet kommer ingen västerländskt programmerad AI att läsa upp Hitlers tal, vilket jag kan förstå. Även om det är extremfall så visar det att en AI har sin inbyggda censur eller bias. Använder du samma AI till att analysera underlag inför valfritt beslut, hur kan du då vara säker på att den ger dig det bästa, mest objektiva svaret?
Ett annat område som AI skulle kunna ställa till det inom är rekrytering. Eftersom en AI tränas på historisk data kan inbyggd diskriminering i valfritt system leda till att AI-baserade system diskriminerar på samma sätt som människor gjort under lång tid.
Utöver det här har vi lagar som redan idag analyseras med hjälp av AI, men också skrivs med hjälp av AI. Lagar runt om i världen blir bara allt mer avancerade och AI kommer göra dem ännu mer avancerade. Det här smygs in överallt i åtminstone västerländska länder. Förr eller senare når vi ett stadium där det bara är maskinerna som kan tolka vad maskinerna har skapat. Bra eller dåligt? Jag vet vad jag tycker.
Även om vi i dagsläget inte har en superintelligens som styr våra samhällen så har vi maskiner som alltmer används för att styra samhällena. De kommer dessutom kopplas ihop alltmer när agentisk AI rullas ut mer och mer. Kom ihåg att vi människor är av naturen lata, så om vi kan få en maskin att göra tråkiga jobb så kommer vi göra det.
Dessutom, jag har inte sett det ännu men jag är övertygad om att rätt många politiker använder AI för att skriva sina motioner. Jag har testat skriva motioner till vägföreningen med hjälp av AI, och det fungerar förvånansvärt bra. Den skriver motioner bättre än vad jag gör.
Men är det en bra idé att en maskin jobbar för att påverka demokrati?
TIPS:
Jag skrev både Svart Kod-trilogin och trilogin om De röda grevarna för att illustrera riskerna med konstgjord intelligens. Du hittar dem i bokhandeln, eller signerade här.
English version – autotranslation by ChatGPT
When AI Governs Our Societies
Those of you who have followed me for a while know where I stand. AI can wipe out humanity, and that’s nothing new. I’m not the only one saying it either. The real question, however, is not if or even when — but how. What will happen, and in what way?
Of course, one scenario is that artificial intelligence reaches singularity and becomes smarter than us. I actually believe this could happen faster than we can imagine. I’ve written about this before, and I think it could occur through an evolutionary process, where code is able to improve itself. (It already can, but it isn’t allowed to — at least not autonomously.)
But before we ever create an artificial intelligence that is smarter than us, changes can occur that are invisible — yet just as dangerous. We are already there today, and few people seem to realize it. Did you know, for example, that many governments around the world are already using AI on a broad scale to help govern their countries?
Roughly 50 countries have developed national strategies to use AI to make government work faster, more efficient, and better. This includes ordinary routine tasks like handling invoices, but also detecting fraud (such as false sick leave claims). However, that’s not where the greatest risks lie.
I believe the real danger is in decision-making. When AI helps make decisions — for example by performing analyses that humans used to do — the underlying data can be flawed. Not because an AI necessarily has an agenda, but because it is programmed by humans who do.
If you think I’m exaggerating, ask any AI to criticize any religion. Or ask it to read out a speech by Hitler. In the latter case, no Western-trained AI will read Hitler’s speeches — which I can understand. Even though these are extreme examples, they clearly demonstrate that AI has built-in censorship or bias. If you then use the same AI to analyze data for an important decision, how can you be sure it’s giving you the best and most objective answer?
Another area where AI could cause serious problems is recruitment. Since AI is trained on historical data, any embedded discrimination in existing systems may lead AI-based recruitment tools to discriminate in the same ways humans have done for decades.
On top of that, we already have laws that are analyzed using AI — and even written with the help of AI. Laws around the world are becoming increasingly complex, and AI will make them even more so. This is quietly creeping into systems everywhere, at least in Western countries. Sooner or later, we’ll reach a stage where only machines can interpret what machines have created. Good or bad? I know what I think.
Even if we don’t yet have a superintelligence running our societies, we already have machines that are increasingly used to govern them. These systems will also become more interconnected as agentic AI is rolled out on a larger scale. Remember: humans are lazy by nature. If we can get a machine to do boring tasks, we will.
And while I haven’t seen it confirmed yet, I’m convinced that quite a few politicians already use AI to write their motions and proposals. I’ve tested writing motions for my local road association using AI, and it works surprisingly well. It writes better motions than I do.
But is it really a good idea for a machine to influence democracy?
TIP:
I wrote both the Dark Code trilogy and the Red Counts trilogy to illustrate the risks of artificial intelligence. You can find them in bookstores — or signed copies here. (only Dark Code is available in English – so far).
