Skip to content

magnuscarling.com

Magnus Carling – Författare, serieskapare, föreläsare och expert på informationssäkerhet

  • HOME
  • NYHETER
  • BUTIK
    • Kassa
    • Varukorg
    • Retur och reklamation
  • Om Magnus Carling
    • På Instagram
  • KONTAKT
    • Länkar
  • Föreläsningar
  • Böcker
    • Ljudböcker
    • De försvunna
    • Svart Kod
    • Svart Storm
    • Svart Värld
    • Korsfäst
    • Konstnären
    • Dahlias Hjul
    • Det enda som krävs
    • Monster
    • Wonderland
    • Röd Feber
    • Skogsmannen
    • Glaslycka
    • Taggtrådsflickan
  • Seriemanus
  • Recensioner
    • Recensioner Svart Kod
    • Recensioner Svart Storm
    • Recensioner Svart Värld
    • Recensioner De försvunna
    • Recensioner Monster
    • Recensioner Wonderland
    • Recensioner Röd Feber
    • Recensioner Skogsmannen
  • Toggle search form
  • Stort tack och God Jul Författarliv
  • Klas Elm – en författare av science fiction skriven på svenska Gästbloggare
  • Skurken är viktigare än hjälten Böcker
  • Konsten att prokrastinera Skrivtips
  • Julmarknad på Billdals Ridklubb Bokmässa och event
  • Gästbloggare: Från teknikmöte till barnbok Gästbloggare
  • Checklista: Är du säker online? Säkerhet
  • Containers & Entertainers Nyheter

Will the race for AI supremacy end humanity?

Posted on oktober 3, 2023oktober 3, 2023 By Magnus Carling Inga kommentarer till Will the race for AI supremacy end humanity?

First, the good news. The world is getting regulated when it comes to AI applications and development. It’s different regulations in different parts of the world, but at least there are some attempts to enforce control over AI.

However, there is not a doubt in my mind that there is an arms race for AI supremacy and especially for the military superpowers there is an enormous focus on being the best at AI. Why? Simply because nobody can afford not to.

This is exactly what happened during World War II, when the atomic bomb was developed. If you haven’t you must watch the fantastic movie about Oppenheimer. There are so many parallells to what was going on back then and what is going on now in regards to AI development.

For one thing, during the Manhattan project, the scientists calculated that there could be a risk that they would in fact ignite the atmosphere. The risk was not high, but after all it was not zero. That risk was lower than the risk we see today that AI will wipe out humanity.

At the same time, no military force could not develop AI-powered weaponry. They would immediately fall behind. Look at the recent development of drones in Ukraine. There are many that say that we will soon see fully automated swarms with drones. If one side would not develop AI applications to either support such an attack, or fight it off, they would loose.

The problem is, as I’ve been saying for quite some time now and I agree with many prominent AI scientists, that AI can without a doubt wipe out humanity. This is a result of the ability in AI to improve itself. It might not be there today, but as we saw with Chat GPT – all of a sudden a new AI application is out in the wild and it was for sure far better than anyone could have imagined. Before Chat GPT became publicly available, this kind of AI-power was still believed to be in the future.

Regulations will control some of the AI-development, at least in some parts of the world. But still, there is an arms race and I’m 100% convinced that the most advanced AI has not been revealed – it’s still in the shadows. That advanced AI is something regulations have no effect on.

What we need is something similar to the Treaty on the Non-Proliferation of Nuclear Weapons. We need to have an agreement where all countries of the world agree to control AI in an ethical way. Weapons powered by an AI must not be developed, or we could really see the end of humanity.

Do you agree or think otherwise? Please let me know.

Did you like this post? Don’t miss future posts – subscribe to my newsletter below and receive latest news every Friday morning.

Registrera dig för att följa bloggen –
utskick varje fredag.

Vi spammar inte! Läs vår integritetspolicy för mer info.

Kontrollera din inkorg eller skräppostmapp för att bekräfta din prenumeration.

Missa inte det här!

10%

rabatt, speciellt för dig 🎁

Registrera dig för att få din exklusiva rabatt och håll dig uppdaterad om våra senaste produkter och erbjudanden!

Vi spammar inte! Läs vår integritetspolicy för mer info.

Kontrollera din inkorg eller skräppostmapp för att bekräfta din prenumeration.

AI, Nyheter Tags:AI, arms race, Regulations

Inläggsnavigering

Previous Post: Så skyddar du dig mot AI-bedrägerier
Next Post: Glöm inte bort fars dag

Related Posts

  • När AI blir smartare än oss – vem dör först? AI
  • Missa inte Torslanda Bokmässa Böcker
  • Är mänskligheten dömd till undergång? AI
  • Gästbloggare: Lyckhälls universum  –  en presentation av Lena Lyckhäll Nyheter
  • Tips på böcker att läsa i höst Nyheter
  • Monster närmar sig publicering Böcker

Lämna ett svar Avbryt svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *


The reCAPTCHA verification period has expired. Please reload the page.

  • Boka en föreläsning om AI som väcker eftertanke
  • chief ethics officer
    Framtidens yrke – Chief Ethics Officer
  • Lind & Co ger ut Taggtrådsflickan
  • Det där kommer aldrig att hända
  • Drönare som patrullerar

  • Nyheter från Magnus Carling Nyheter
  • AI väcker de döda till liv AI
  • Vinnaren av Monster De röda grevarna
  • virtuell verklighet
    Vill du leva i en virtuell verklighet? Säkerhet
  • Varför skriva fantasy?  Böcker
  • ai kontrollerar stridsflygplan
    När AI kontrollerar stridsflygplan AI
  • Så säljer du dina första 1000 böcker Författarliv
  • sirius
    Tora Greve: Om Sirius och det övernaturliga Övernaturligt

Galleri



Media och Journalistik

Linktree
Goodreads

Missa ingenting - gå med i e-postlistan med utskick varje fredag!

Kontrollera din inkorg eller skräppostmapp för att bekräfta din prenumeration.

Kommande evenemang

Notis
Det finns inga kommande evenemang.

Copyright © 2026 magnuscarling.com.

Powered by PressBook News Dark theme