Neuralink vill koppla upp våra hjärnor mot AI
Vi skrev och berättade om Elon Musk:s projekt och företag Neuralink för drygt två år sedan i en bloggpost. Men sedan dess har det varit mer eller mindre helt tyst kring projektet. Ända fram tills i förra veckan då Elon Musk ledde en omfattande presentation av projektet.
I inledningen av presentationen så säger Elon Musk att huvudsyftet med att nu gå ut och berätta om projektet är rekrytering. Neuralink vill förmodligen locka till sig världens ledande forskare på området. Och de har hård konkurrens av bla Facebook som också jobbar på att skapa ett interface som gör det möjligt för oss att kommunicera digitalt enbart med hjälp av våra hjärnor och med vår tankekraft. Och apropå just rekrytering så är det i Facebooks jobbannonser för deras projekt med hjärna/dator-interface som man kan utläsa hur seriösa även de är med sitt projekt. Dessa två och säkert flera andra företag tävlar nu om att samla världseliten inom detta forskningsområde. Precis som var fallet när kapplöpningarna pågick om att bli först med att skapa en atombomb och att ta sig först ut i rymden.
Elons slutliga mål med Neuralink nöjer sig inte med att vi ska kontrollera vår mobil och dator med tankekraft, utan att våra hjärnor ska vara helt uppkopplade mot Artificiell Intelligens. För Elon Musk är övertygad om att det är vår enda chans i konkurrensen med A.I och vår enda chans att vi i framtiden inte ska bli husdjur åt A.I.
Det Neuralink nu presenterade var hur långt de har kommit i sitt försök att koppla upp våra hjärnor. De utvecklar ett chip som implenteras innanför skallebenet. Chippet kopplas sedan upp med olika centra i våra hjärnor via sensorer i formen av tunna fiber som är ca 1/10 så tjock som ett hårstrå. Dessa fiber läggs in av en robot då det är en operation som av förklarliga skäl kräver en oerhörd precision. Fibertrådarna läggs in så exakt att blodkärl och annat känsligt i hjärnan undviks trots att de läggs in rätt så djupt ner i hjärnan.
Nedan en bild av chippet så som det presenterades intill ett U.S onecent-mynt:
Målsättningen är att detta ska göras på försök på en människa innan 2020 är över. Så det ligger inte långt bort i framtiden.
Vem skulle ha nytta av detta?
I detta skede säger sig Neuralink vara klara att ge en människa möjligheten att kontrollera sin mobil och dator via detta chip. Och för en grupp kommer detta vara mer intressant än oss övriga och det är personer som pga neurologisk sjukdom som tex ALS helt förlorat möjligheten att tala, att använda sina händer, armar och tom ögon för att kommunicera. För dessa personers innebär det en möjlighet att kommunicera med sin familj och vänner, styra sin omgivning osv. Så det som kan verka som onödigt för oss utan fysiska utmaningar kan denna möjlighet skapa helt nya och unika möjligheter till så mycket rikare liv.
Läsa hjärnsignaler är inget nytt
För många år sedan jobbade jag på ett företag som bla utvecklade datoranpassningar och kommunikationshjälpmedel för personer med funktionsnedsättningar och för ca 15-16 år hörde jag första gången talas om Cyberlink Mind Mouse, som en forskare som heter Andrew Junker hade utvecklat (se bild ovan). Det var en apparat som via sensorer som man fäste i pannan med ett pannband kunde styra datorn via enkla kontroller. Jag hörde även Andrew Junker presentera Cyberlink på en internationell mässa för datoranpassningar och kommunikationshjälpmedel i Odense, Danmark. Där berättade han att en person med långt gången ALS som inte haft möjlighet att alls kunna kommunicera med sin omgivning alls ändå i de mail han fick lät som en person mitt i livet. Andrew Junker beskrev hur hans Cyberlink kunde bryta det fängelse som personens kropp hade blivit pga sjukdomen.
Junker hade börjat utveckla sin teknik åt US Airforce. Tanken var att försöka hitta ett system som skulle kunna ge stridspiloter ett så snabbt system som möjligt när det kom till att avfyra vapen i en duell (där millisekunder kan vara skillnaden på vem som ska överleva en duell mellan två toppmoderna jaktflyg). Men när US Airforce inte längre trodde att tekniken skulle kunna fungera i praktiken för jaktpiloter slutade Junker där och vidareutvecklade sin uppfinning med inriktning på hjälpmedelsindustrin istället.
Jag hade även möjlighet att testa tekniken. Och efter en kort genomgång och träning kunde jag styra en ”kula” genom en labyrint på datorskärmen enbart genom att jag via två olika hjärnsignaler kunde få kulan att åka i både x- och y-led. Mkt fascinerande var det.
De signaler som är enklast att fånga upp och som Neuralink nu även riktar in sig på är när du tänker att du ska röra ansiktsmuskler/mun/ögon. Och du behöver alltså inte i praktiken röra musklerna eller ens kunna röra musklerna i fråga för att hjärnan skickar signaler som kan mätas upp. Då jag testade Cyberlink var det höja ögonbrynen som var en sak jag skulle tänka att jag gjorde, men ögonbrynen behövde inte röra sig. Och pannbandet utanpå huden kunde då alltså mäta upp dessa signaler och omvandla dem till att kulan i testspelet rörde på sig. När en sensor sitter inne i hjärnan på det ställe som styr dessa muskler är det lätt att tänka sig hur otroligt liten signal som då behövs för att kunna mäta upp den och identifiera den.
En lång bit kvar till Matrix
Det var mycket imponerande att höra hur långt Neuralink har kommit och de ligger troligen långt före övriga på området. Men det har också en rejäl bit kvar till scenarios liknande de i fictionens böcker och filmer där vi bara genom en tanke eller ett kommando ”laddar ner” världens samlade kunskap om astrofysik i våra hjärnor eller exempelvis skaffar oss kunskapen motsvarande svart bälte i karate bara för att vi känner för det.
Ljudlös kommunikation med Siri?
Ett mellansteg mellan att styra sin mobil och att ha hjärnan helt sammankopplad med A.I skulle kunna bli att vi skaffar oss en ljudlös kommunikation med en A.I-baserad assistent som Siri eller Google Assistant.
I April förra året presenterade Arnav Kapur och en grupp studenter på MIT sin prototyp AlterEgo. Ett headset som läser av det du ”tänker”. Eller mer exakt beskrivet: De ord du formar i ditt huvud men inte talar ut. Och svaret läses upp via samma headset skickar ljudvågor via ditt kindben som du då kan uppfatta med örat trots att det är ljud som inte hörs ens på nära håll av din omgivning. Därmed kan du ställa frågor, Googla ljudlöst osv.
Denna typ av kommunikation hade varit coolt om Neuralink hade kunnat göra möjligt via sitt chip. För den vita grunkan ovan har det där lilla enkla hindret som troligen även blev Google Glasses död: krävs stor dos av självförtroende att gå runt med det där på stan. Bättre med ett chip i hjärnan då, eller hur? ????
Boktips om A.I
Har du läst så här långt i detta blogginlägg kanske du nästan är lika fascinerad av detta med A.I som jag. Men orkar du ändå inte läsa fackböcker på området har jag ett mer lättsmält boktips till dig så här i sommarvärmen: The Origin, den senaste delen i Dan Browns böcker om professor Langdon (Da Vinci-koden är den mest kända) så spelar A.I en central roll i handlingen. Och tidigt i boken får professor Langdon prova på ett headset inte helt olikt MIT:s AlterEgo trots att boken skrev innan det presenterades i april 2018. Boken ”The Origin” heter ”Begynnelsen” i den svenska översättningen. Tänkte inte spoila något. Men läs boken och fundera kring hur långt bort i framtiden du tror det scenario är som spelas upp i boken.
/Daniel Erkstam
Fotnot:
Här kan du se hela Neuralinks presentation om du vill veta mer i detalj hur långt de har kommit och hur deras chip fungerar: