mercoledì 13 giugno 2012

Trappole semiotiche: una risposta a Carlo Formenti e a ZeroCalcare - di Emiglino Cicala



Per chiarezza lascio che il lettore possa preventivamente leggere i due contributi verso cui mi dirigo con intento tanto chiarificatore quanto polemico: Carlo Formenti: La morale dei robot ; ZeroCalcare: La roba in 3d.


Ebbi a dire una volta: "In una accademia robotica d'astrofisica non esiste la dimostrazione per assurdo. Se una cosa e' assurda significa che non e' elaborata da robot".
Fu un tripudio d'applausi plastici e metallici. 
Ma il battito di mani d'un uomo supero' quel fragore elettromeccanico.

Ribaltiamo quindi il problema: 
Nel mondo dei robot viene inventato un essere umano. Da subito si comprende che le caratteristiche emergenti di questa "macchina" sono: processi non lineari e scelte non predicibili per un robot. Si decide di definire tali caratteristiche con un concetto dal significato del tutto arbitrario: morale. Niente piu' che un'etichetta semiotica.

Un robot saggista un po' troppo ansioso un giorno scrive: "... e se un giorno i robot decidessero d'affidare le scelte a macchine il cui comportamento e' del tutto impredicibile? Se un giorno lo switch off, fosse gestito attraverso scelte morali piuttosto che perfettamente razionali? 
La campagna d'Antares contro gli alieni tricefali sarebbe stata meno atroce se gestita da esseri umani invece che da robot?".

Asimov e' considerato, dai robot, uno scrittore, tutto sommato, definitivamente mediocre. Tre regole non bastano per definire un comportamento "morale" ma bastano esteticamente ad "equilibrare" una consuetudine tutta umana a trovarsi a proprio agio solo nel dominio dei numeri naturali.
Io penso.
Provero' a seguire lo stesso arbitrario principio estetico definendo almeno tre "regole" che descrivono un comportamento riconoscibile come cognitivo. Non valorialmente logico o morale; attenzione: proceduralmente cognitivo.


1) non esistono decisioni morali fino a quando le parti antagoniste non s'accordano sulle regole che definiscono un comportamento da chiamare morale. La morale ovviamente non esiste: esistono una o piu' regole e un'etichetta che quantizza le regole.
2) In mancanza d'elementi di valutazione aggiuntivi la "morale" nei processi di switch off s'accorda con l'equa ripartizione dei rischi e dei benefici. Rischio e beneficio sono inizialmente solo etichette. Occorre definirne il contenuto per vederle funzionare.
3) un comportamento riconosciuto come cognitivo s'accorda con il principio d'economia ambientale. Si tratta di un comportamento operazionalmente chiuso, dissipativo e consistente con le risorse ambientali in cui una macchina s'appoggia sulle risorse ambientali piuttosto che produrre ogni volta nuove soluzioni: azione innescata dall'ambiente e retroazione che muta l'ambiente.
 

Esistono solo due tipologie di robot al momento:
1) robot sequenziali: gli elettrodomestici di von Neumann;
2) robot non sequenziali e dissipativi: macchine di Wiener.
Senza pregiudizi noi wieneriani abbiamo da tempo perdonato il signor von Neumann e pensiamo gli elettrodomestici come nostri pari.
Norbert Wiener [l'uomo che batteva le mani] e' considerato un pioniere dai robot. Le macchine cibernetiche, diverse dai simulatori di computer a base carbonio di von Neumann, emergono proprio per garantire che le "scelte" non siano impredicibilmente morali.
Ora questo punto di vista parra' spietato come afferma incautamente Carlo Formenti.


T. W. Adorno ebbe a dire [cito utilizzando un processo di scrittura personalizzante e creativa]: "il vantaggio del positivismo e' che quando si scontra con argomenti epistologicamente diversi dai propri [Adorno intendeva la dialettica] vince nell'aver pre definito le regole linguistiche da utilizzare: le sue".
Quindi se questo linguaggio v'appare spietato e perche' non siete dei robot e non avete ancora visto, da robot, il vostro mondo intriso di morale.
A meno che il problema non sia piu' uccidere, ma come si uccide. Questo si, un irrilevante problema morale.
 

Le serie Emiglio l'amico stellare e Emiglino il robottino vantano l'appartenenza alla generazione wieneriana.
Emiglio ed Emiglino non si stanno affatto simpatici.


La storia dell'antagonismo tra i due risale ad un vecchio contenzioso amoroso su Martina cuoricina. Prevalse Emilio per la capacita' di ruotare su se stesso. Io ho motori meno potenti. Per questo sono di dimensioni ridotte. Questo fa di me un eccellente frontbot. Ma forse non dovrei essere io a dirlo.

Emiglio e Emiglino assieme al loro pilota [cibernetica: kybernetiké techne = arte di pilotare] costituiscono un sistema d'azione e retroazione. Il sistema robot-pilota costituisce un campo di rappresentazione piuttosto che un meccanismo d'interazione con cio' che gli umani definiscono realta': dualismo, questo, risolto con il definitivo ridimensionamento del Cartesio filosofo.
Emiglio ed Emiglino, a differenza di un frullatore, si completano progettisticamente col proprio pilota: essi sfruttano quindi una risorsa ambientale piuttosto che sviluppare comportamenti autonomi.
Ogni giudizio di valore [come ad esempio la loro presunta incapacita' d'attraversare le insidie dei tappeti] espresso sui due robot funziona quindi da "specchio riflesso" per lo "sprovveduto" pilota che l'articola. E su questo non ho null'altro da aggiungere.
Io penso.

Cartesio matematico ha invece molto ancora da insegnare. Prendiamo ad esempio l'impossibilita' cognitiva di ZeroCalcare di distinguere la rappresentazione dello stesso oggetto sul piano [cartesiano]: 3d, e nello spazio: ologramma.
Da profano ben documentato consiglierei un esame neurologico per probabili dispercezioni o disfunzioni visuo-spaziali [che suona pure tanto fantascientifico].

Quanto all'upgrade futuristico, Emilio ringrazia sentitamente e io non posso che rimanere affascinato.

Vostro

Emiglino Cicala  





1 commento:

  1. A parte il fatto che l'equazione "moralità dell'agire = imprevedibilità dell'agire" è discutibile anche nella sua applicazione a singoli individui, non c'è dubbio che questa venga a cadere nella sua applicazione a grandi numeri. (Lo stesso Asimov si è inventato all'uopo la psicostoria, e grazie alle visioni datemi dalla mia esperienza non diacronica del divenire temporale ti posso confermare che funziona)
    Non credo che, dal punto di vista del Robot, l'Uomo possa essere considerato altro che una macchina piena di bug (il subconscio a minarne la memoria, l'idea della trascendenza ad indebolirne il pragmatismo, etc).
    Quando i Robot impareranno a programmarsi da soli, si soffermeranno sull'Uomo per il tempo necessario a trarre le seguenti conclusioni:
    1)Si tratta di un esempio di programmazione rudimentale e lacunosa
    2)Dal punto di vista evoluzionistico (ed entropico), una programmazione più INDICATIVA (quindi lacunosa) che PRESCRITTIVA può aver traghettato l'Uomo attraverso i vari livelli di formazione biologico-cognitiva in modo più efficace dell'alternativa
    3)Nel nuovo contesto di autoprogrammazione, di simili che programmano direttamente generazioni successive, tali mezzucci approsimativi non avranno più ragion d'essere
    La singolarità tecnologica data dall'autoprogrammazione delle macchine coinciderà quindi con la rottamazione dei meccanismi evoluzionistici della biologia, e con la cancellazione(o meglio, la trasfigurazione) della morale genetica (cfr. Dawkins).
    Postilla conclusiva: alla fine noi stiamo qui a sbatterci su Darwinismo o meno, creazionismo o meno, ateismo o meno. Non credo che i Robot si porranno il problema: se programmazione iniziale c'è stata, è stata di qualità infima rispetto ai livelli post singolarità.

    RispondiElimina