Artificiell stupiditet

All ny teknologi har alltid skyndsamt tagits i bruk av militären. Nu när USA, Ryssland och Kina med full kapacitet utvecklar artificiellt intelligenta vapensystem infinner sig rädslan för om – eller snarast när – Terminatorn ska bli verklighet.

I en artikel i Breaking Defense påpekar nordamerikanska militära AI-experter att när ett militärt vapensystem automatiseras med hjälp av artificiell intelligens så måste det göras autonomt, åtminstone till en viss grad, för att kunna fungera snabbt och vid behov utan mänsklig styrning.

Ett sånt här autonomt vapensystem eller plattform ses ändå av dessa militära AI-experter som en attackyta. Systemet har alltid svaga punkter som kan attackeras; och det är just själva autonomin som då blir det främsta målet. Det autonoma systemet kan attackeras elektroniskt, utan att en enda missil behöver avfyras, till exempel genom att hacka sig in i dess programvara, genom att störa kommunikationen till dess kommandocentral eller genom att helt enkelt lura det.

Den artificiella intelligensens tillkortakommanden eller akilleshälar kallas ofta . artificiell stupiditet. Det är fråga om hur de algoritmer systemet använder kan luras att misstolka sin omgivning på ett sätt en människa aldrig skulle göra, eftersom algoritmerna baserar sig enbart på enorma datamängder plus matematik och logik medan en människa i en stridssituation dessutom använder instinkter, intuition, så kallat bondförnuft – och slughet.

Det är ju synsinnet, människans viktigaste, som också håller på att bli det viktigaste inom AI. Att se betyder ifråga om en maskin – liksom för en människa – att förstå den bild dess kameror (ögon) tillhandahåller. Jag har kollat in en del program om just AI, bland annat på TED Talks och där presentaras allt som oftast fall där AI misstolkat det den ser. Till exempel tolkades en staty av en man till häst som en man till häst, vilket ju i en krigssituation kan vara mindre lyckat. Ett trafikmärke med en tejpbit på lämpligt ställe tolkades som ett helt annat trafikmärke. En tandborste tolkades som ett basebollträ. Och så vidare, exemplen är tyvärr fortfarande legio. När det maskinen konfronteras med plötsligt ligger på gränsen eller utanför de data den lärts upp med kan den artificiella intelligensen lätt bli artificiell stupiditet.

Ju mera komplicerat ett system är dess flera blir dess attackytor och dess större dess sårbarhet. För att kunna agera intelligent måste AI bygga upp en modell i flera lager av hur världen eller ifråga om militära tillämpningar ett krigsscenarium fungerar men den modellen kan också användas av fienden för att sabotera systemet. Som ett korthus, petar man på ett kort rasar hela huset.

Med tanke på hur begränsad och sårbar den områdesspecifika artificiella intelligensen är så är det enligt amerikansk militärexpertis kanske mera skäl för militär maskinintelligens att vara rädd för mänsklig intelligens än tvärtom. Åtminstone tills vidare.

This entry was posted in Bert, Bloggar. Bookmark the permalink.

One Response to Artificiell stupiditet

  1. anders says:

    Nog går det väl sen lite längre…AI som figurkännare är en futtig användning för ett system som har i sig väldiga möjligheter. Tänk om vi gick hela tiden i skolan för att sedan i examen få titta på bilder – “det här är inte en pipa” – vilket slöseri. Militären utmärker sig ju också för att ha lov att satsa enorma summor på idioti (senast i Tyskland: 137 Me på att reparera en segelbåt).

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.