“Mobilisering” robotter, der kan erstatte de Tre Love for Robotteknologi

0
126

AI experts have detailed a new set of guidelines for ethical robot behavior, around a principle ...

AI eksperter har beskrevet et nyt sæt retningslinjer for etisk robot adfærd, omkring et princip kaldet Empowerment

(Credit: vitaliy_sokol/Depositphotos)

Isaac Asimov ‘ s Tre Love for Robotteknologi er alsidigt og let nok til, at de fortsat er 75 år, efter at han først opfundet dem. Men vores nuværende verden, hvor robotter og AI agenter er rengøring af vores huse, køre i vores biler, og du arbejder sammen med os, er meget anderledes, end selv de mest fremsynede sci-fi forfattere kunne forestille sig. For at gøre sikker på, at retningslinjerne for programmering kunstig intelligens kaste så bredt et net som muligt, eksperter fra University of Hertfordshire har detaljerede et nyt system de kalder “Empowerment.”

Oprindeligt oprettet som en sikkerhedsforanstaltning af robotter i Asimov ‘ s spekulative historier, de Tre Love er elegante i deres enkelhed. 1) En robot må ikke skade et menneske eller gennem passivitet, tillade et menneske at komme til skade. 2) En robot skal adlyde ordrer givet af mennesker undtagen hvor disse ordrer ville være i konflikt med den Første Lov. 3) En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med Første eller Anden Lov.

Men Hertfordshire forskere mener, at disse love ikke dækkende for alle de nuancer, der kan opstå i en robot, er dag-til-dag liv. Nogen retningslinjer for robot adfærd er nødt til at være samtidig generiske nok til at anvende enhver situation, men veldefineret nok til at sikre, at robotten optræder altid i de bedste interesser af sig selv, og mennesker omkring dem.

Som en AI-konceptet, Empowerment har eksisteret siden 2005, og holdet har udviklet og raffineret den i løbet af de sidste 12 år. Kort sagt, en robot er den primære motivation bør være at forsøge at holde sine muligheder åbne, og det bør træffe foranstaltninger for at forlade det med så mange muligheder som muligt for sit næste træk. I forlængelse, at robotten skal også handle for at maksimere myndiggørelse af mennesker omkring det, også.

Det lyder temmelig grundlæggende, men forskerne siger, at agenter, der handler i henhold til dette princip har udstillet overraskende naturlige adfærd. Endnu bedre, de skal kun blive givet en forståelse af den generelle udvikling i verden, uden at være programmeret for hver specifik scenario, der kan ske.

De Tre Love blev designet til at gøre sikker på, at robotter er produktive, uden at skade sig selv eller mennesker, og Empowerment dækker de samme grundlæggende punkter. For eksempel, såre eller dræbe et menneske ville naturligvis falde, at personens empowerment – herregud, de vil ikke have nogen muligheder for venstre. Det samme gælder for den tredje lov, hvor en robot egen indflydelse og velfærd er på spil.

“Der er i øjeblikket en masse debat om etik og sikkerhed i robotteknologi, herunder en nylig en opfordring til etiske standarder eller retningslinjer for robotter,” siger Christoph Salge, co-forfatter af papiret. “Der er navnlig behov for robotter til at være styret af en eller anden form for generiske, højere instruktion niveau, hvis de forventes at beskæftige sig med stadig nye og komplekse situationer i fremtiden – at optræde som tjenere, kammerater og kollegaer.

“Der præger en robot med disse former for motivation er vanskelig, fordi robotter, der har problemer med at forstå menneskelige sprog og specifikke adfærd regler kan fejle, når de anvendes i forskellige sammenhænge. Fra starten, og at en formalisering af denne form for adfærd på en generisk og proaktiv måde udgør en vanskelig udfordring. Vi mener, at vores tilgang kan tilbyde en løsning.”

Papiret blev offentliggjort i tidsskriftet Frontiers in Robotics og AI.

Kilde: University of Hertfordshire