Eccoci di nuovo al momento cinema: dopo avervi messo un po’ in ansia (per il vostro bene, eh!) parlandovi di Hackers (se non l’avete letto, qui il link all’articolo), questa settimana voglio allietarvi proponendovi un film decisamente più recente e più profondo: Ex Machina.
>>> CineNerd “Ex Machina” (2015, Alex Garland) <<<
Film del 2015 con una bravissima Alicia Vikander nel ruolo di Ava, è un cyber thriller molto classico che riprende un tema “tech” molto caro al cinema: le intelligenze artificiali.
La trama, apparentemente lineare (lei è un robot, dichiaratamente tale, è lui deve sottoporla ad un test per capire fino a che punto possieda una coscienza propria aka Test di Turing), ha un finale che probabilmente ha fatto sobbalzare la salma del povero Asimov, che era uno con idee molto chiare a riguardo.
Il film ha preso un Oscar per gli effetti speciali (meritatissimo) e ha mancato di poco quello come migliore sceneggiatura (che avrebbe meritato altrettanto): è un film basato sulla forza visiva delle inquadrature e soprattutto sui dialoghi, sulla parola, sulla riflessione.
Se vi aspettate un rutilante film alla Transformers, ecco, questo è l’esatto opposto.
Dimenticate mecha e pallottole, il punto interessante del film è il tema trattato: la coscienza delle AI.
Nel caso del film, la verosimiglianza fisica del robot ad una persona reale contribuisce in modo evidente ad instillare un profondo senso di inquietudine nello spettatore, ma la questione sul tavolo, cioè l’autonomia decisionale delle AI, è concreto e molto reale ben fuori dallo schermo.
Problemi etici, morali, fisici
Molti non possono fare a meno di chiedersi se in effetti queste AI, sempre più pervasive, non possano o non abbiano già sviluppato un loro proprio libero arbitrio. La questione è tutt’altro che secondaria.
Se noi lasciamo che le AI imparino autonomamente “navigando su Internet” (che è notoriamente una giungla, non così rappresentativa delle parti migliori dell’umanità, più o meno come un incrocio all’ora di punta, di notte, mentre piove a dirotto), il risultato è che gli schemi di comportamento acquisiti vanno a tradursi in “risposte calcolate dall’AI” su presupposti negativi, il che induce a pensare che l’AI stessa abbia sviluppato una coscienza malvagia. Ma è meramente un problema di causa effetto: se all’Ai viene mostrato che a stimolo A corrisponde la risposta B, questa diventerà una reazione codificata, per cui ad A seguirà sempre B. Semplice. Non c’è un giudizio etico/morale su A o B da parte dell’intelligenza artificiale.
Potremmo dilettarci a discutere di cosa ci renda così diversi, dato che anche i nostri comportamenti sono la reazione (complessa) a stimoli (complessi) che abbiamo imparato a codificare negli anni, ma ci addentreremmo in un ginepraio da cui sarebbe difficile uscire e non vorrei turbare eccessivamente i vostri sogni…
Invece restiamo ad un livello più concreto: le AI che possiamo eventualmente implementare all’interno del vostro sistema informatico prenderanno mai il controllo dell’Azienda ignorando gli ordini che vengono impartiti dall’esterno? La risposta è no. Con grande sicurezza e serenità.
Quello che succede in realtà
Le AI che possiamo mettervi a disposizione imparano solo quello che si decide di insegnare loro, non usciranno dai loro ambiti, non prenderanno decisioni se non specificatamente impostate per farlo e contemporaneamente potranno effettuare lavori di routine e calcoli predittivi accurati per aiutarvi a prendere decisioni migliori per la vostra Azienda.
Dormite sonni tranquilli: le AI di Nubys non scateneranno le macchinette del caffè contro di voi!
Alla prossima puntata!
Elena Iseni
Resp. Mkt e Comunicazione