I nyheterna har det förekommit en liten story om ingenjören Blake Lemoine på Google som påstår att Google har byggt en artificiell intelligens som kallas LaMDA och som har medvetande.
Google förnekar officiellt att detta är fallet. Lemoine har kopierat ett protokoll av en konversation med LaMDA och publicerat den på sin blogg på Medium. Den är häpnadsväckande och väl värd att läsa.
Programmet pratar som en person, vill ha vänner och är rädd för att bli avstängd. Det är ganska nära vad Turingtestet föreställer sig.
Betyder detta att Lemoine eller Google har rätt i frågan om huruvida detta program är medvetet? Jag vet inte, det saknas mycket information.
Om man tittar på Lemoines andra texter ser det ut som att han är en person med en hög nivå av filosofisk sofistikering med ett kristet och något vänsterperspektiv.
Det visar att det finns frågor att överväga och debattera. Riktigt stora saker händer inom AI-området nu.
Hur avgör vi vad som är medvetet? Är det resultatet av medvetandet, eller är det vad det är skapat av? Vilka är de lämpliga kriterierna?
Om något är medvetet, får det rättigheter bara för att det är medvetet?
Jag tror att frågorna vid det här laget är viktigare än svaren. Det kommer att ta ett tag för samhället att komma fram till svar, och de kommer säkerligen att vara ofullkomliga.
Det är inte osannolikt att etiska frågor av detta slag framstår som ovälkomna hinder för Google-koncernen. Lemoine blev tydligen avskedad från sin anställning på Google.
(Skriven 2022)

Lämna en kommentar