ricerche |
Miti e utopie
La televisione ha per prima assunto 'le vesti di [ . ] una sorta di mitologia collettiva'. Nella nostra cultura le antiche mitologie, di origine classica, hanno ormai praticamente perso qualsiasi capacità di proporsi come rete di raccordo sociale per le proiezioni fantastiche e le narrazioni di origine collettiva; al loro posto è subentrata la televisione che ogni giorno ci presenta a modo suo immagini, storie, relazioni e opinioni chiave, generalmente più o meno accettate. E pian piano, con la crescita della comunicazione globale, la stessa televisione è stata surclassata dalla rete. Con l'avvento di una nuova era, quella digitale, i fanatismi si sono risvegliati, rievocando i fantasmi del passato televisivo e favorendo grossolani errori valutativi per il futuro. Le discussioni hanno a volte perso il loro carattere agnostico, per cadere in previsioni bibliche. La nascita di nuovi miti e nuove utopie (o il riadattamento di vecchi miti e utopie alle moderne tecniche) è stata favorita dalla rigogliosa letteratura fantascientifica, che ha fornito materiale di discussione all'ambiente scientifico e filosofico. Scienza e filosofia, anch'esse, si sono fate fuorviare da dibattiti poco scientifici e assolutamente irreali, superando spesso perfino la fantasia letteraria.
Il nome stesso della rete più utilizzata è web, cioè 'ragnatela', e non è questa la prima metafora esistente se si pensa che la prima forma di organizzazione logica di Internet era stata battezzata gopher.
Web esprime l'immagine della 'ragnatela', ma tra le altre proposte di metaforizzazioni di Internet e anche quella del 'labirinto'. Forse però la metafora della 'ragnatela' ha un limite, una debolezza, per così dire: non c'è infatti ragnatela senza ragno; in altri termini c'è sempre un elemento che produce e gestisce la rete. In realtà l'idea stessa di controllo da parte di un osservatore - la più classica che sempre si utilizza è quella del Panopticum, di un occhio, quasi come l'occhio di Dio che ci guarda e controlla tutto quello che noi facciamo - è un'idea che non coincide con la realtà di Internet; adesso esistono una miriade di 'occhi di Dio', per creare una metafora un po' dissacrante. In questo senso la metafora del 'labirinto' sembra essere molto più interessante, poiché nel labirinto si è tutti ugualmente passivi e attivi allo stesso tempo.
Lo strabismo telematico
Nella stima degli aspetti positivi e di quelli negativi della società dell'informazione ci sono state considerevoli errori valutativi. Queste sviste, analizzate ne 'Lo strabismo telematico', sono dovute principalmente al fattore ideologico: si pensa sempre che quando esiste una tecnologia, quest'ultima verrà usata e, di conseguenza, produrrà alcuni effetti. Questa consequenzialità è assolutamente ideologica, perché, poi, nei fatti, molto spesso così non è. Molti studiosi si sono uniformati a questa ideologia e a coloro i quali producono queste tecnologie, ovviamente, conviene che certe conseguenze siano previste. Una delle maggiori aspettative rispetto alle nuove tecnologie è sempre stata quella di una crescita notevole del progresso economico come conseguenza inevitabile dello sviluppo tecnologico. Questo perché uno degli errori fondamentali è stato quello di trasferire all'intera società alcune previsioni che potevano essere pensate per l'economia aziendale: dall'azienda alla società nel suo complesso. Ma evidentemente, nella società esistono una serie di fattori che concorrono al risultato che nell'azienda non sono presenti. Simili errori riguardano le previsione sulla democratizzazione della società grazie all'utilizzo della rete. Si è dato per scontato che il progresso tecnologico e Internet, portassero ad una diffusione dell'uguaglianza, e, quindi, alla possibilità di intervento di tutti su tutto. In realtà, questa possibilità, in qualche modo, esiste; ma è vero che esiste anche la tendenza opposta: al controllo di tutto e alla sorveglianza di tutti. Le previsioni sono saltate di tecnologia in tecnologia, come se finalmente una nuova invenzione fosse 'la soluzione'. È la stessa logica mitologica di 'ricerca di salvezza' in qualcosa di nuovo. Sono state numerose le profezie fatte sulle nuove tecnologie, come quella probabilmente più infondata: quella della democrazia. Si è dato per scontato che il progresso tecnologico e la rete delle reti, cioè Internet, portasse ad una diffusione dell'uguaglianza, e, quindi, della possibilità di intervento di tutti su tutto. In realtà, questa possibilità, in qualche modo, esiste; ma è vero che esiste anche la tendenza opposta: al controllo di tutto e anche alla sorveglianza. Del resto anche il mito del telelavoro non ha considerato la possibilità di alienazione dell'individuo, non lasciando più spazi privati distinti dal lavoro. È però vero che dal punto di vista morale i pensatori si sono sbizzarriti con una teoria molto fantasiosa. Quanto Internet ha iniziato a diffondersi per il mondo, molti pensatori coscienti hanno posto il problema di regolamentare la rete. Cosa che inizialmente non è stata fatta, perché molti erano, in un certo modo, persuasi che Internet si sarebbe autoregolamentata. Come se Internet fosse un essere biologico, che raggiunge la sua 'stabilità interiore'.
Questa credenza ha fatto negli ultimi tempi correre ai ripari le maggiori nazioni del mondo, producendo a volte danni, piuttosto che migliorie.
Il mito di Internet riguarda, per esempio, la sua importanza. In effetti il fenomeno di Internet è molto rilevante nella nostra società, ma i cambiamenti sociali previsti solo pochi anni fa non si sono avverati. Infatti 'la diffusione del Web è ancora limita' numericamente e a determinate fasce sociali. Il fruitore medio di Internet è un 'bianco, anglofono, con reddito medio/alto'; ed in ogni caso riguarda principalmente il mondo occidentale. Ma chi è stato a costruire e costituire il mito di Internet? Sono stati diversi gli uomini/personaggi in diversi settori, e principalmente negli USA, dove la tendenza alla mistificazione è molto più forte che in Europa. Le prime voci si sono alzate dal mondo della ricerca scientifica, portando a divinazione Nicholas Negroponte a cui viene dato, in maniera irrevocabile dalla comunità mondiale, il titolo di guru. È il fondatore e il direttore del Media Laboratory del MIT negli Stati Uniti, un centro di ricerca con un budget multi miliardario, orientato esclusivamente sullo studio e la sperimentazione delle forme future della comunicazione umana, dalla istruzione all'educazione. I suoi programmi includono: la televisione di domani, la scuola del futuro, i sistemi d'informazione e d'intrattenimento e l'olografia. L'apice della fede nel digitale Negroponte l'ha espressa nel suo libro 'Essere digitali' ('Being digital'), considerato ormai, molto sbrigativamente, una vera e propria Bibbia della nuova era comunicativa. Egli afferma che essere digitali 'è semplicemente un modo di vivere. Non ha nulla di scientifico, di tecnico o di teorico. Fa parte della realtà, ed è qualcosa che i bambini del mondo intero capiscono perfettamente; soltanto gli adulti non ne sanno nulla'. O si crede o no. Sembra un ritorno impetuoso del positivismo. Le grandi scoperte scientifiche del MIT non vengono discusse, si deve accettare il modello di vita altrimenti si è 'fuori dal mondo dei bit, ancorati nel mondo degli atomi'. Bill Gates, geniale creatore della Microsoft, è stato invece il guru economico dell'essere digitali. Bill Gates è un commerciante e la sua religiosità rientra nel settore economico, ma anche lui da al suo recente libro un titolo profetico: 'La strada che porta a domani'. A regolare politicamente l'impulso profetizzante della rivoluzione digitale è stato Al Gore, vicepresidente USA del governo Clinton, il quale però, per non essere meno degli altri, ha trasportato il fervore tecnologico nella politica americana, grazie al suo ormai famoso programma politico: 'Information superhighway' (autostrada dell'informazione.
La ssa dei Dinosauri
Il passaggio dall'analogico al digitale viene considerato un passaggio cruciale nella storia contemporanea, e anche questo evento viene mitizzato sia dalla letteratura che dalla scienza. La storia della scienza e della filosofia è costellata di rivoluzioni, ed oggi la 'rivoluzione digitale', è stata quella che ha posto al centro d'osservazione non più l'atomo, ma il bit. La scienza e la filosofia sono così da atomocentriche divenute digitocentriche. Questa grande rivoluzione annunciata dai grandi 'profeti tecnologici' del nostro secolo, è stata la causa del passaggio epocale. Siamo entrati nell'era digitale; non dimenticando però che questa rivoluzione ha investito principalmente le regioni ricche del mondo e non le altre. Naturalmente stiamo parlando di un'era sociologica e non geologica, dove la tecnologia rivoluzionaria è posta al centro del passaggio epocale e l'uomo 'si deve solo adattare'. Il passaggio epocale, che attualmente non è concluso, ma solo iniziato, comporta come tutti i passaggi epocali il declino di qualcosa. Lo sviluppo del 'bit' fa declinare, fino ad una imminente ssa, l'analogico. Tutte le tecnologie analogiche possono essere urate come 'grandi dinosauri', ingombranti e poco agili, destinati a sire per lasciare spazio alle nuove 'razze tecnologiche', più agili e veloci. La televisione è l'emblema delle tecnologie analogiche che siranno. La televisione con il suo fare autoritario, per cui l'utente riceve solamente e non può dialogare, è ingombrante, farraginosa ed impositiva. 'Sirà, questo è il suo destino'. La televisione farà la fine dei dinosauri, occuperà sempre un posto più marginale, fino all'estinzione. Sono i media interattivi che aumenteranno e la tv verrà così completamente fagocitata. Grazie al contributo della similitudine dei dinosauri di George Gilder, l'avvento dell'era digitale viene paragonato al più grande evento della storia del mondo. Si aggiunge un altro tassello alla mistificazione del presente.
Il Grande Fratello e Villaggio Globale
Il televisore era servito a George Orwell in '1984' da mezzo per l'attuazione di una dittatura alienante. Il televisore era la tecnologia che serviva, per prima nella storia, a dare il potere divino dell'onniscienza all'uomo. Nel romanzo di Orwell il mezzo per l'attuazione della dittatura del Socing (Socialismo Inglese) è il televisore. Ma non un televisore completamente 'pull', che cioè fornisce le informazioni in maniera unidirezionale dall'alto al basso; al contrario è l'ipotesi di un mezzo interattivo, ma controllato. Il televisore di 1984 funziona si come un normale televisore, ma può contemporaneamente ricevere informazioni: ascolta e vede tutto ciò che accade. Sembra un controllore instancabile, ma in realtà è solo il mezzo che serve per controllare, l'analisi di giudizio resta sempre ad un 'uomo controllore'. Con Orwell la paura di un controllo costante da parte del Grande Fratello si materializza. In Oceania la parte grossa del lavoro sta proprio nel tenere in piedi la struttura della dittatura.
La proposta situazionale di Orwell è, oggigiorno, improponibile, anche se il Grande Fratello concretizza una paura ancestrale inamovibile. Orwell però non aveva immaginato che tutta l'opera di controllo potesse essere automatizzata nell'era digitale. Anzi dopo la 'ssa dei dinosauri' la possibilità di realizzare un controllo quasi assoluto diventa praticabile dal punto di vista tecnico. Con la digitalizzazione di gran parte delle tecnologie, e con lo sviluppo di sistemi algoritmici sempre più precisi per l'utilizzo delle reti neurali, ogni movimento, ogni pensiero, ogni azione potrebbe essere controllato.
E diverse cose vengono già controllate. Sembra contraddittorio, ma l'unico modo di essere liberi nel pensiero è sempre di più quello di scrivere su un 'antico diario cartaceo' nascosti in un nicchia al controllo delle tecnologie, come usava fare Winston nella sua piccola stanza.
Un altro mito che è nato per la televisione e poi è stato riutilizzato per le reti è quello di 'villaggio globale'. Che iniziò ad intravedersi nel campo letterario già dalla fine degli anni sessanta con la possibilità di un'unione del mondo, di un Villaggio Globale, teorizzato da Marshall McLuhan, nel quale poter vivere, avendo, in ogni istante, la possibilità di sapere cosa avveniva nel resto del mondo. Benché questa teoria sia stata largamente superata dalla libertà di parola che la Rete ha dato ad ogni cittadino, cioè dalla possibilità, oggi, di una Interconnessione Globale, idea sviluppata dallo scrittore William Gibson che teorizzò anche la possibilità dell'aspetto grafico della comunicazione nel cyber-spazio. La televisione era il medium principale all'epoca di McLuhan, ma la crescita tecnologica non ha cancellato il mito del villaggio globale, benché sia 'cambiato il suo intimo significato'. Il villaggio globale oggi riguarda la comunicazione globale di tipo digitale e anche i miti democratici che erano legati al 'villaggio globale' di McLuhan ora si ritrovano costantemente nel panorama filosofico e politico mondiale.
Cybionte e cyborg
Il Cybionte è una metafora proposta da De Rosnay per comprendere quello che ci potrebbe succedere nel terzo millennio. Il significato di questa parola è la creazione di un organismo etario, un macrorganismo, costituito dagli uomini, dalle città, dai centri informatici, dai computer e dalle macchine. Se si dice 'città' si sa di cosa si parla, ma non si possono utilizzare immagini per rappresentare un organismo etario costituito da tutti questi sistemi. Perciò De Rosnay ha creato il termine 'Cybionte' che deriva dalla cibernetica (ciber), la scienza dell'informazione e della regolamentazione nei sistemi complessi, e dalla biologia (bios), e che denota un organismo ibrido, nello stesso tempo biologico, elettronico, meccanico, sociale ecc. Il Cybionte è più della somma delle sue parti, come il cervello è più della somma dei suoi neuroni, o il corpo umano è più della somma di quei sessantamila miliardi di cellule che lo costituiscono. Sul piano dell'ecologia, ricercatori come James Lorlock, hanno proposto l'idea di 'Gaia'; cioè l'idea di una terra, di un sistema-terra che reagisce come un essere vivente, senza essere un vivente. Ma Lorlock non ha parlato della società umana. Parla sempre dell'uomo come di un parassita che vive sulla terra. L'uomo sta costruendo un nuovo organismo vivente, un macrorganismo etario, e questo organismo deve imparare a vivere in simbiosi con 'Gaia', la terra. Questo esige l'ecologia. 'Se questa simbiosi riesce, allora avremo una possibilità di vivere un terzo millennio e un quarto, positivi per l'umanità, altrimenti andremo verso catastrofi ecologiche, economiche e sociali'. Il Cybionte è una grande 'utopia' del futuro. L'utopia di De Rosnay è molto più articolata di quella del 'villaggio globale' di McLuhan, e inoltre necessita di numerose scelte morali collettive.
L'uomo ha già, ed avrà sempre di più una simbiosi con la tecnologia. Attualmente sono note soprattutto protesi di tipo medico e terapeutico, ma quasi certamente in futuro i potenziometri fisici e mentali saranno molto più comuni. La fantascienza, come sempre, ha cercato di anticipare i possibili futuri. 'Neuromante' è la ura fantascientifica più inquietante che la letteratura abbia partorito, per la interazione neurale umana con la rete, o come veniva ancora nominata dallo scrittore William Gibson, matrice. Probabilmente Case, il protagonista di 'Neuromante', è il personaggio più realistico nell'orizzonte letterario fantascientifico; perché di ure mito-tecnologiche in realtà ce ne sono state moltissime. Il tentativo di replicare l'uomo non è nuovo nella storia dell'umanità, come la leggenda di Pandora creata da Efesto e quella del Golem del rabbino Leone ben Bezabel. È cambiato oggi solo il nome degli esseri mitologici inventati dal nulla. Oggi si chiamano organismi cibernetici, meglio noti con l'abbreviazione di 'cyborg'. In pratica organismi non fatti con 'materia informe' come nelle leggende, ma con le più sofisticate tecnologie. Il che, è vero, rende più credibile la possibilità di creare un cyborg, ma aumenta proporzionalmente la paura di essere spodestati da una creatura creata dall'uomo, che acquisti in qualche modo coscienza di sé stessa. È sempre più verosimile l'intuizione di Orwell dove l'uomo, il Grande Fratello, utilizza la tecnologia per i suoi scopi negativi, piuttosto di una tecnologia superiore all'uomo.
Il traduttore universale
Con la nascita dell'universo della comunicazione nascevano anche i miti dell'onnipotenza, della onniscienza, i miti della razionalità perfetta e del controllo totale; il mito della spiegabilità algoritmica senza residui del mondo e di conseguenza il mito della traducibilità. Che poi si trattasse di tradurre un testo da una lingua all'altra oppure di tradurre una parte del mondo in un'altra o in linguaggio matematico, poco importava. Il grande mito del traduttore universale, ispirato anche ai modelli matematici di Shannon e ai modelli linguistici di Noam Chomsky, non considera che il fenomeno linguistico è molto più articolato di ciò che fa intravedere la teoria formalizzata; si mescolano infatti elementi naturali e convenzionali, sintattici e semantici, pragmatici e emotivi. Insomma la comunicazione non è un fenomeno solo biologico, ma anche storico e culturale, soggetto dunque alle contingenze e al dinamismo dei rapporti tra soggetto e soggetto e tra soggetto e ambiente.
Quella comunicativa è un'attività intessuta di metafore, di significati empirici e impliciti, di ambiguità che screziano e arricchiscono il puro scambio di informazioni, corredandole di una serie di valenze metacomunicative ed extracomunicative, senza le quali lo scambio sarebbe misero. Come dice Sergio Moravia, mentre Chomsky cerca 'nella mente dell'uomo (o addirittura nel suo corredo genetico) regole e strutture statiche, invarianti, universali', altri, tra cui Searle, ricercano 'essenzialmente ciò che in quel luogo si conura, come concretizzazione di intenzioni/progetti determinati, di significazioni culturali e di comunicazioni sociali, che trovano le loro determinazioni finali solo in una dinamica gamma di eventi e situazioni interpersonali'.
L'evento comunicativo per eccellenza è la conversazione: è in essa che la dimensione psico-comportamentale dell'uomo emerge in tutta la sua ricchezza di intenzioni, sottintesi, scopi e rimandi.
Nella conversazione l'ascoltatore è attivo e partecipa alla narrazione. La conversazione si può considerare come 'una narrazione a più voci, una narrazione collettiva (o connettiva: a rete) e quindi, come tutte le narrazioni, un tentativo di dare un senso al mondo e a sé nel mondo'.
La differenza tra la comunicazione umana e quella informatica è che quest'ultima è un mero scambio di informazioni attuato con codici semplici e indeformabili, e corrisponde pertanto al modello di Chomsky.
L'intelligenza umana e il suo rispecchiamento verbale invece sono fenomeni contestuali, sistemici e diacronici.
Un testo è radicato nel mondo e tradurre un testo significa tradurre il mondo (o almeno un pezzo di mondo). Non è sorprendente, come afferma Douglas Hofstadter, che la miglior traduzione inglese di un romanzo di Dostoevskij sia, in ultima analisi, un romanzo di Dickens.
Cioè, se si vuole che il lettore 'medio' inglese abbia, di fronte alla traduzione, un'impressione globale 'analoga' (o 'simile' o 'equivalente') all'impressione che il lettore 'medio' russo ha di fronte a Dostoevskij, allora la cosa migliore è fargli leggere Dickens.
Si può pensare alla traduzione come una ri-creazione dell'opera, che tende ad allentare il legame con l'originale al fine di renderlo innocuo. La traduzione automatica troverebbe notevoli difficoltà di fronte agli 'aloni semantici'. In un testo, ogni fonema, sillaba, frase, ogni elemento linguistico risulta legato in modo più o meno stretto agli altri elementi. Questo complesso di legami presenta aspetti sonori, grammaticali, sintattici e semantici (es. attrazione verbale, allitterazione, rima) insuperabili. L'alone semantico persiste e si evolve nella mente. Per la sua specificità è impossibile trasportare compiutamente questo alone, o plesso di legami, da una lingua (cultura) all'atra se non con quell'operazione temeraria e impossibile che consisterebbe nel tradurre ogni volta il mondo in sé stesso. L'alone semantico è una manifestazione della polisemia e dell'ambiguità delle lingue naturali. Insomma l'alone semantico, che pure costituisce il principale ostacolo nelle traduzioni, ne permette tuttavia un perfezionamento continuo per la sua ambiguità. Per poter lavorare con gli aloni semantici, i calcolatori dovrebbero forse utilizzare una logica sfumata (fuzzy logic), ma ad oggi nessuno è riuscito ad ottenere risultati apprezzabili. Estendendo l'osservazione di Hofstadter, si può forse dire che la ragione per cui un calcolatore non riesce a tradurre un romanzo somiglia alla ragione per la quale non riesce a scrivere un romanzo. Alan Turing affermò 'solo un calcolatore può capire un sonetto scritto da un calcolatore', e per simmetria si può affermare che 'solo un uomo può capire un sonetto scritto da un uomo', purché abbiano lo stesso substrato culturale e linguistico.
Fisica, Logica e IA
Questo modulo cerca di individuare alcune linee di modifica delle categorie fondamentali della fisica, spostando il centro di gravità dall'atomo al bit, e come questi cambiamenti abbiano influenzato la matematica, la logica, la comunicazione globale e la Intelligenza Artificiale.
Spazio, tempo
Spazio e Tempo sono il background (lo sfondo) nel quale le cose accadono. La fisica ha sempre considerato tali concetti fondamentali per l'analisi dell'evento. Anche l'importanza attribuita da Kant a queste categorie ha influito nelle teorie gnoseologiche, fino a nostri giorni.
Gli infiniti punti dell'ordinario spazio fisico hanno sempre soddisfatto gli assiomi della fisica meccanica, dove i valori spaziali e temporali erano costanti e relativi ad un unico sistema, quello di misurazione.
Con la fisica astronomica si è resa necessaria, per la misurazione delle distanze intergalattiche, l'utilizzazione dello spazio a quattro dimensioni, o spazio-tempo, poiché il sistema di misurazione della fisica meccanica, precedentemente elaborato, non era più univoco. Era stata la 'teoria della relatività speciale o ristretta' di Albert Einstein a mostrare come un evento avesse valore relativo al sistema dal quale veniva misurato, e non avesse quindi più il carattere di contemporaneità assoluta che aveva nella fisica meccanica. Un punto nello spazio è infatti relativo al sistema dal quale viene misurato. Per poter analizzare l'evento si devono quindi eseguire almeno due misurazione da due sistemi differenti. Cosicché un punto nello spazio-tempo, detto cronòtopo, ha due quadruplette di coordinate dei due sistemi di riferimento. Spazio e tempo sono stati assoluti nella fisica meccanica, relativi nella relatività speciale, e frazionati o zero approssimativi nell'era digitale. Con l'avvento dell'era digitale e solo all'interno del digitale, le categorie di spazio e tempo hanno assunto un valore minimo.
Atomo, Bit
Il tipo di rivoluzione che stiamo attraversando con l'avvento del digitale, è ben espressa da Nicholas Negroponte, uno dei guru dell'informatica.
'La differenza tra bit e atomi è il modo più semplice di descrivere il cambiamento. Infatti, capiamo molto bene il mondo degli atomi (delle cose, della gente, ecc.). Di fatto tutte le nostre leggi sono costruite attorno agli atomi, anche la legge sui diritti d'autore è costruita attorno agli atomi. Il mondo dei bit è molto interessante perché i bit non hanno peso, non hanno dimensioni, non hanno colore, viaggiano alla velocità della luce. Tutti concordano sul fatto che una biblioteca pubblica sia una buona cosa: una buona cosa per la cultura e per la società. Una biblioteca pubblica funziona perché essa si basa su atomi: dovete portare i vostri atomi alla biblioteca. Allora prendete il libro in prestito. Non è che un altro atomo, ma - e questo è così ovvio che non ci pensiamo mai - il guaio è che quando prendete in prestito un atomo non ci sono atomi rimanenti. Resta uno spazio vuoto. Voi portate il libro a casa, lo leggete, diciamo in una settimana, lo riportate alla biblioteca.
Magicamente qualcuno lo prende in prestito di nuovo, e lo riporta indietro dopo una settimana. Così 52 persone avranno letto il libro in un anno. Ora invece renderò la biblioteca pubblica 'digitale'. Cambierò solo questo: muterò gli atomi in bit. Non dovrò trasportare i miei atomi alla biblioteca. È una cosa così ovvia, ma non viene mai detta: è che quando prendete in prestito un bit, c'è sempre un altro bit che rimane. Così ora 20 milioni di persone possono prendere in prestito questo libro simultaneamente, senza muoversi di casa, giusto battendo alcuni tasti, e così abbiamo violato le leggi del copyright'
Secondo quanto afferma lo stesso Negroponte, il valore del bit è dato dalla sua diffusibilità. Ecco allora perché nella storia delle scoperte tecnologiche viene data notevolissima importanza all'invenzione della stampa di Gutenberg. La divulgazione del pensiero era legata, prima della sua scoperta, alla pesantezza del tempo di realizzazione, che influiva su tutti gli aspetti divulgativi, da quelli materiali (non esistevano tante copie dello stesso scritto) a quelli economici (il carattere unico dei manoscritti li rendeva costosissimi). L'invenzione della stampa a caratteri mobili non ha eliminato i limiti precedenti, li ha solo alleggeriti di molto. In pratica l'atomicità del supporto è rimasta invariata. La rivoluzione è avvenuta quando il contenuto, digitalizzato, ha avuto la facoltà di essere indifferente al supporto. Quando, riprendendo le parole di Negroponte, si è passati 'dall'atomo al bit'.
La scrittura, tra le espressioni umane, era l'unica che potesse però essere separata in maniera non difettiva dal suo supporto.
Con l'informatica il trasporto dell'informazione è diventato veloce e leggero. E con la smaterializzazione dell'informazione cambia anche la misurazione del peso dell'informazione: non più peso atomico, ma peso binario.
Cyber-spazio.
Cyber-spazio 'è la trasparenza assoluta di tutti i calcolatori della terra'. Il temine, cyberspace, fu utilizzato per la prima volta da William Gibson nel suo libro di fantascienza 'Neuromancer', e da allora utilizzato per rappresentare il mondo all'interno della rete.
Nel cyber-spazio l'informazione è libera. Mentre prima qualsiasi informazione consultabile era legata ad un supporto materiale, e perciò legata alle leggi fisiche di spazio e di tempo della meccanica classica, oggi l'informazione è stata staccata dal suo supporto materiale. Se la 'Metafisica' di Aristotele, prima del digitale, aveva un supporto cartaceo che occupava uno spazio S1, con un numero n di ine, mentre la sua stampa occupava un tempo T1 per la realizzazione. Dopo la pubblicazione della 'Metafisica', perché l'informazione contenuta al suo interno arrivasse al fruitore, doveva essere distribuita percorrendo uno spazio geografico S2 in un tempo T2; il che porta le teorie espresse da Aristotele nella 'Metafisica' ad occupare uno spazio Stot (S1 + S2) ed un tempo Ttot (T1 + T2) determinati, e, dato il suo supporto nel caso specifico cartaceo, era legata alle leggi della fisica meccanica. Nell'era digitale, la 'Metafisica' può essere trasformata in numeri utilizzando il più semplice sistema matematico: quello binario.
Cosa si è fatto? Si è distrutto il supporto cartaceo che ne reggeva le informazioni. O meglio si sono rese indipendenti dal supporto le teorie che Aristotele aveva espresso nel suo libro. Rendendole indipendenti dal supporto sono state anche rese indipendenti dalle leggi della fisica meccanica classica e le limitazioni di spazio e tempo che regolavano il testo cartaceo sono state quasi completamente eliminate.
La velocità assoluta è diventata una caratteristica dell'informazione e della comunicazione.
Lo spazio molecolare è stato invece sostituito dallo spazio astratto della matematica pari quasi allo zero.
Lo spazio S0 in cui l'informazione oggi si muove percorrendolo in un tempo assoluto pari a T0, viene chiamato 'cyber-spazio'.
Infinito, Caos
Un elaboratore elettronico, una macchina a stati finiti, potrà mai elaborare l'infinito o almeno il concetto di infinito? Certamente i progressi più significativi della matematica sono scaturiti dall'elaborazione del concetto di infinito. L'uomo è in grado di formulare il concetto di infinito matematico, ma in realtà si tratta di qualcosa di incommensurabilmente grande, o più semplicemente al di fuori dei limiti di un tempo e di un processo finiti. Molto spesso si dice che l'infinito è correlato al concetto di 'insieme che contiene sé stesso'. Consideriamo i numeri naturali, essi sono infiniti, perché è sempre possibile trovare il successore di un numero, per quanto grande esso possa essere. Certo, ma questa è una pura congettura, nata dal fatto non verificato, che dato un numero possiamo trovare il successivo semplicemente sommando una unità; avremmo abbastanza tempo per farlo? Avremmo abbastanza spazio? Anche se un uomo saprebbe, in teoria, come farlo, non è immediato che potrebbe realmente riuscirci. Il riduzionismo fisico ha tentato di fare implodere il concetto dell'infinito in sé stesso. 'Il numero di neuroni del cervello è molto grande, ma finito, anche la capacità di memoria di un calcolatore può essere molto grande, ma pur tuttavia finita. Non è difficile programmare un elaboratore affinché esegua un ciclo senza fine, il classico loop, ma prima o poi tale ciclo verrebbe interrotto, o bloccando il programma, o spegnendo il calcolatore stesso. L'infinito sembra proprio che non possa avere una dimora nel cervello o nell'elaboratore, anche se è possibile concepire qualcosa senza fine, forse proprio per la contrapposizione rispetto alle cose che sono finite'.
Opponendosi al riduzionismo, gli studi sulla complessità mirano a descrivere i sistemi osservandone non i componenti bensì i comportamenti a vari livelli e scoprendone la mutua irriducibilità, che si manifesta nella presenza di caratteristiche emergenti, non spiegabili in base al comportamento dei livelli inferiori. Si trovano così due estremi di comportamento: l'ordine e il caos, si pensi ad un solido in cui gli atomi occupano posizioni fisse e ad un gas in cui gli atomi si muovono liberamente. Tra questi due estremi, in una zona chiamata margine del caos, vi sono sistemi le cui componenti sono abbastanza stabili per immagazzinare informazione ma troppo labili per trasmetterla: questi sistemi si possono organizzare, a volte spontaneamente, per eseguire calcoli, reagire alle perturbazioni e anche manifestare quel comportamento complesso ed elusivo, stabile, ma non troppo, che si chiama vita. Sono sistemi aperti, nel senso che sono attraversati da flussi di energia, materia e informazione che li mantengono lontani dall'equilibrio. Questi sistemi iniziano ad essere applicati anche ai sistemi sociali e culturali. Nella fisica classica le leggi sono sempre state considerate deterministiche, nel senso che consentirebbero di prevedere con precisione assoluta l'evoluzione del sistema considerato quando sia noto il suo stato in un certo istante. Oggi questa visione, sostenuta con forza da Laplace due secoli fa, non regge più: si è scoperto che anche sistemi semplicissimi, retti da leggi deterministiche, presentano comportamenti caotici dagli esiti imprevedibili. Questi sistemi sono instabili, cioè sensibili alle condizioni iniziali, nel senso che una modifica, per quanto lieve e non rilevabile con i nostri strumenti, porta ad effetti diversi. Il cosiddetto 'effetto farfalla': il battito d'ali di una farfalla in Amazzonia potrebbe scatenare un uragano nel Mar della Sonda. Dunque sistemi assolutamente deterministici possono seguire un'evoluzione caotica, da cui l'ossimoro 'caos deterministico', la scoperta di questa limitazione ha scosso la fiducia illuministica dell'uomo di conoscere sempre meglio la realtà. Il caos deterministico fu scoperto più di un secolo fa da alcuni matematici, ma ha cominciato ad influire sulla nostra visione del mondo dal 1963, quando è stato riscoperto grazie al calcolatore. 'Se è vero che noi non sappiamo calcolare l'evoluzione di un sistema, per esempio l'Universo, è pur vero che il sistema sa calcolare perfettamente la propria evoluzione' .
Logiche polivalenti
Da non molto tempo gli scienziati hanno realizzato che le teorie scientifiche non sono necessariamente teorie certe, anzi, è molto interessante studiare con metodi certi e rigorosi il concetto di incertezza. Questo lavoro, dal punto di vista logico e matematico, è stato svolto soprattutto nell'ambito delle cosiddette logiche fuzzy (fuzzy logics), logiche sfumate. Si tratta di logiche che hanno abbandonato un principio classico, aristotelico, della logica secondo cui i valori di verità, il vero e il falso, sono due e soltanto due: c'è il vero e c'è il falso, e non si considerano situazioni intermedie tra il vero e il falso, in particolare non si considerano situazioni semantiche di indeterminatezza e di ambiguità. Nel nostro secolo, attorno agli anni Venti, è cominciato un importante studio intorno alle logiche polivalenti. Le logiche polivalenti sono quelle logiche secondo cui i valori di verità possono essere più di due, tre, quattro, dieci, infiniti, tanti quanti i numeri reali che stanno nell'intervallo zero/uno. Si è visto che queste logiche fuzzy, create inizialmente soprattutto per scopi filosofici, negli anni più vicini a noi, Sessanta e Settanta, hanno avuto delle interessanti applicazioni tecnologiche; infatti, principalmente i giapponesi, hanno cominciato a costruire macchine che usano essenzialmente logiche di tipo fuzzy, di tipo sfumato.
IA
Nata ufficialmente nel 1956 l'Intelligenza Artificiale (IA) si colloca nel solco della millenaria ambizione dell'uomo di imitare l'atto divino della creazione. 'L'IA è il Golem moderno'. L'IA è nata animata dall'intento, non di ricostruire l'uomo, ma di riprodurne con estrema precisione una sola parte: la mente, o meglio, l'intelligenza computante, considerata l'aspetto più importante, caratteristico e fondamentale dell'uomo. Infatti a quei tempi c'era ancora la tendenza a identificare la mente con i suoi aspetti razionali, anzi simbolici e algoritmici. La tesi di Church apparteneva alla versione forte dell'IA: 'tutta l'attività mentale dell'uomo è di tipo algoritmico dunque riproducibile con una macchina discreta'. Affermazione sostenuta anche da Alan Turing, il quale aveva proposto in maniera indiscutibile, il 'Gioco dell'imitazione' come metodo per il riconoscimento dell'intelligenza artificiale. L'IA funzionalistica dunque rimuove il corpo e il suo radicamento nel mondo e accentua le prerogative logico-razionali della mente umana. Dopo il primo sviluppo in senso funzionalistico, dell'IA, si sono potenziate le teorie strutturalistiche, che vedono nella struttura neuronale la caratteristica fondamentale del cervello. Pur senza cadere nella tentazione di ricreare la struttura neuronale del cervello di Einstein, la matematica ha sviluppato lo studio delle 'reti neurali', alle quali ha applicato degli algoritmi che avessero uno sviluppo autonomo, detti 'genetic algorithms' (algoritmi genetici). La facoltà di autoapprendimento dall'errore ha affascinato gran parte della scienza, andando ad intaccare i grandi sistemi matematici di tipo probabilistico. La mente umana è molto più lenta delle macchine a fare calcoli, ma è molto più adatta ad affrontare relazioni di tipo analogico ad alto livello. Queste considerazioni toccano la natura platonica della matematica: i calcolatori starebbero alle 'verità' matematiche come gli acceleratori di particelle stanno alla 'realtà' fisica, entrambe le macchine aiutano a scoprire una realtà preesistente, e ciò rivelerebbe un intreccio tra il platonismo e lo sperimentalismo. Penrose è riuscito ad esaltare questa similitudine usando in maniera essenziale i teoremi di Gödel. Il problema è 'perché ci sono delle verità matematiche che la mente umana riesce a intuire e che un calcolatore non riesce a dimostrare?'. L'ipotesi di Penrose è un po' strana, ed ha suscitato delle reazioni qualche volta anche negative nella comunità degli scienziati. Secondo Penrose 'il motivo per cui la mente umana ha questa capacità tutta peculiare dipende dal fatto che nel cervello umano ci sono dei processi essenzialmente quantistici, e poiché la meccanica quantistica è una teoria indeterministica - mentre le macchine di solito sono deterministiche -, tale indeterminismo essenziale si verifica nella parte interna dei neuroni del nostro cervello e ci restituisce questa capacità di capire cose che sfuggono al potere delle macchine'. La sua visione dell'IA sembra parallela ai computer quantistici teorizzati da Feynman. Nell'applicazione ai computer e ai calcoli, gli elementi di una sovrapposizione quantistica di stati danno luogo a rami paralleli di calcolo, per cui ogni ramo rappresenta l'elemento di una sovrapposizione quantistica. Naturalmente, per ottenere, poi, un risultato definito tutti questi rami diversi devono precipitare su un unico risultato, deve avvenire quel processo che in meccanica quantistica si chiama 'collasso della funzione d'onda'. In pratica si è arrivati a sostenere che il pensiero è un 'collasso della funzione d'onda'.
Percezione
'A livello di percezione dell'universo sensibile probabilmente non esistono infiniti termini se non piuttosto confini percettivi che non possono essere trattati e manipolati se non utilizzando il concetto di infinito dove l'infinito corrisponde all'orizzonte percettivo'. Le percezioni sono state virtualizzate, come lo è stato il corpo, il soggetto della percezione. Infine la realtà virtuale è arrivata, falsando i nostri sistemi percettivi, a trasformare le metodologie conoscitive.
Virtuale
Consideriamo l'opposizione semplice quanto ingannevole di reale e virtuale. Generalmente, la parola virtuale viene utilizzata per significare l'assenza di esistenza pura e semplice, dal momento che la 'realtà' implicherebbe una effettività materiale, una presenza tangibile.
Ciò che è reale rientrerebbe nell'ordine della presenza concreta ('l'uovo di oggi'), e ciò che è virtuale in quello della presenza differita ('la gallina di domani'). La parola virtuale proviene dal latino medievale virtualis, derivato, a sua volta, da virtus, forza, potenza. Nella filosofia scolastica 'virtuale' è ciò che esiste in potenza e non in atto. Il virtuale tende ad attualizzarsi, senza essere tuttavia passato ad una concretizzazione effettiva o formale. L'albero è virtualmente presente nel seme. Volendosi attenere rigorosamente al ragionamento filosofico, il virtuale non si contrappone al reale, ma all'attuale: virtualità e attualità sono due diversi modi di essere. A questo punto è necessario introdurre una distinzione fondamentale tra possibile e virtuale, messa in luce da Gilles Deleuze in Differenza e ripetizione Il possibile è già interamente costituito, ma rimane nella irrealtà. Senza cambiare nulla della sua determinazione e della sua natura: 'è un reale latente'. Il possibile è esattamente determinato e completo come il reale: gli manca solo l'esistenza. 'La differenza tra possibile e reale è' dunque 'puramente logica'. Il virtuale a sua volta non si oppone al reale, ma all'attuale. Contrariamente al possibile, statico e già costituito, il virtuale è come un complesso in divenire, il nodo di tendenze e di forze che accomna una situazione e che richiede un processo di trasformazione: l'attualizzazione. Il problema del seme, per esempio, è di far crescere un albero. Il seme 'è' questo problema, anche se non si esaurisce in esso. Questo non significa che esso 'conosca' esattamente quale sarà esattamente la forma dell'albero, ma a partire dai vincoli che gli sono propri dovrà inventarlo adattandosi alle circostanze in cui si imbatterà. Pierre Lévy bene differenzia le contrapposizioni reale/virtuale e attuale/virtuale, arrivando a cogliere così il virtuale più simile ad una 'potenzialità' aristotelica. 'E se la realizzazione è quel movimento che porta all'accadere di un possibile predefinito e l'attualizzazione è l'invenzione di una soluzione richiesta da un complesso problematico, la virtualizzazione può essere definita come il movimento contrario all'attualizzazione. La virtualizzazione passa da una soluzione data ad un (altro) problema. Una delle modalità più importanti del virtuale è il distacco dal qui e ora'. Il virtuale molto spesso 'non è nel ci''. È Michel Serres per primo a descrivere il tema del virtuale come 'fuori dal ci'. L'immaginazione, la memoria, la conoscenza, la religione sono dei vettori di virtualizzazione che hanno fatto che noi abbandonassimo il 'ci' molto prima di quanto abbiano fatto la diffusione dell'informazione e le reti a tecnologia digitale. Essere svincolati dal ci, occupare uno spazio inafferrabile, non essere soltanto 'nel ci', tutto questo non impedisce di essere. Benché un'etimologia non provi molto, la parola esistere proviene precisamente dal latino sistere, essere situato, e dal suffisso ex, fuori da. Esistere è dunque un esser-ci o un uscire dal ci? Dasein o esistenza? È come se il tedesco sottolineasse l'attualizzazione e il latino la virtualizzazione. Quando una persona, una collettività, un atto, un'informazione si virtualizzano, si pongono 'fuori da ci'. E ciò nonostante il virtuale non è immaginario. Produce degli effetti. Sebbene non si sappia dove, la conversazione telefonica 'ha luogo'.
Spazialità. Il contemporaneo moltiplicarsi degli spazi fa di noi un nuovo genere di nomadi: anziché seguire delle linee di erranza e di migrazione nell'ambito di una certa estensione, noi saltiamo da una rete all'altra, da un sistema di prossimità al successivo. L'invenzione di nuove velocità è stato il primo stadio della virtualizzazione. L'aumento esponenziale della comunicazione e la diffusione del trasporto rapido riguardano il movimento di virtualizzazione della società, ed hanno la medesima tensione a 'uscire dal ci'.
Virtualizzazione del testo. Lettura, scrittura, digitalizzazione sono le varie fasi che portano all'ipertesto e l'ipertesto è uno degli esempi più comuni di virtualizzazione.
Lettura. Sin dalle origini mesopotamiche, il testo è oggetto virtuale, astratto, indipendente dal tipo specifico di supporto. Leggere, ascoltare, paradossalmente, significa incominciare a tralasciare, a trascegliere e a slegare il testo. Lacerando attraverso la lettura e l'ascolto noi accartocciamo il testo; esso diventa un'interfaccia con noi stessi. Ascoltare, leggere significa costruirsi. Qui il testo funge da vettore. Attraverso la lettura avviene l'attualizzazione del testo e con questo si attualizza il nostro personale spazio mentale.
Scrittura. La scrittura è stata una delle importanti estroflessioni cognitive dell'uomo. È stata la tecnologia che ha esteriorizzato il linguaggio. L'introduzione della scrittura ha accelerato un processo di sempre maggior artificio, di esteriorizzazione e di virtualizzazione della memoria. La scrittura non può essere ridotta a mera registrazione della parola. La parziale oggettivazione della memoria nel testo ha permesso, probabilmente, lo sviluppo di una tradizione critica. Infatti, lo scritto crea una distanza tra il sapere e il suo soggetto: lo scrittore. 'Forse è perché non sono più ciò che so, che sono in grado di rimetterlo in discussione'.
Digitalizzazione. Il nuovo testo ha innanzitutto delle caratteristiche tecniche riconducibili ad una dialettica del possibile e del reale. Mentre nella lettura su supporto cartaceo è presente una attualità del testo (il testo è là, scritto nero su bianco, e non può essere modificato), nella lettura su video questa presenza stabile viene meno. Il supporto digitale non contiene testo che possa essere letto dall'uomo, ma una serie di codici informatici che potranno eventualmente essere tradotti da un computer in segni alfanumerici e visualizzati su display. Lo schermo si presenta, quindi, come una finestra dalla quale il lettore parte all'esplorazione di una riserva potenziale. Potenziale e non virtuale, perché il software di lettura predetermina un insieme di possibili che, per quanto vasto, è comunque numericamente finito e logicamente chiuso. 'Il virtuale appare solo con l'ingresso nel cerchio della soggettività umana[ . ]'. Il computer è quindi, restando nel linguaggio di Lévy, un operatore di potenzializzazione dell'informazione. Lo schermo informatico è una nuova 'macchina per leggere', ma ogni lettura al computer è una edizione, un montaggio singolare.
Ipertesto. È con l'ipertesto che avviene la virtualizzazione del testo e della lettura. 'Il testo è trasformato in una problematica testuale'. Sappiamo che nei primi testi alfabetici non vi era separazione fra le parole. Solo progressivamente furono inventati gli spazi tra i vocaboli, la punteggiatura, i paragrafi, le suddivisioni in moduli, gli indici, gli apparati, l'iminazione, la rete dei rimandi delle enciclopedie e dei dizionari, le note a piè di ina . insomma, tutto ciò che serve a facilitare la lettura e la consultazione dei documenti scritti. Contribuendo a piegare i testi, a strutturarli, ad articolarli oltre la loro linearità. Queste tecnologie ausiliari costituiscono quello che potremmo definire un apparato di lettura artificiale. L'ipertesto, l'ipermediale e il multimediale interattivo proseguono un processo secolare di artificializzazione della lettura. 'I dispositivi ipertestuali costituiscono una sorta di oggettivazione, di esteriorizzazione, di virtualizzazione dei processi di lettura'.
Il corpo virtuale
Il corpo virtuale è un paradosso introdotto nel 1997 da Antonio Caronia, il quale, contro la paura della 'ssa' del corpo tramite la digitalizzazione, ha invece affermato la nuova centralità del corpo nell'attività dell'uomo, grazie alle tecnologie digitali. Il corpo, con l'uso della telecomunicazione digitale, arriva a perdere il riferimento con lo spazio-tempo sectiunesiano e con lo spazio-tempo biofisico. La cosa rilevante che spesso si dimentica è che l'interazione importante non è quella tra l'uomo e la macchina, ma tra l'uomo e l'uomo mediata dalla macchina. Questa nuova comunicazione realizza una sorta di simbiosi tra uomo e macchina. Il corpo in quanto tale non perde centralità, ma al contrario l'acquista. Tutto ciò ha valore se noi consideriamo il corpo non come un semplice concetto biologico, ma come un concetto culturale. Il processo di disseminazione del corpo nelle reti implica una ridistribuzione, una ridefinizione del concetto di corpo. Una teorizzazione sistematica del corpo virtuale è stata proposta da Pierre Lévy, attraverso le percezioni, le proiezioni, i rovesciamenti e gli ipercorpi.
Percezione. I sistemi di telecomunicazione rappresentano chiaramente uno spostamento all'esterno delle funzioni percettive. Il telefono per l'udito, la televisione per la vista, i sistemi di manipolazione a distanza per il tatto e l'interazione sensomotoria. Grazie agli apparecchi fotografici, alle telecamere e ai registratori possiamo percepire le sensazioni provate da un'altra persona in un altro momento e in un altro luogo. Inoltre, i cosiddetti sistemi di realtà virtuale (RV) ci consentono di sperimentare l'integrazione dinamica di modalità percettive differenti. Ci è dato quasi di rivivere in tutto e per tutto l'esperienza sensoriale di un altro. Nella percezione non diminuiamo la nostra centralità corporea, ma ne acquisiamo di esterne: appropriandocene.
Proiezione. La funzione simmetrica della percezione è la proiezione nel mondo sia dell'azione sia dell'immagine. La proiezione dell'azione è naturalmente legata alle macchine, alle reti di trasporto, ai circuiti di produzione e di distribuzione dell'energia, alle armi. In questo caso molte persone condividono gli stessi enormi arti, virtualizzati e deterritorializzati. La proiezione dell'immagine del corpo in genere viene associata al concetto di telepresenza. Il telefono, per esempio, opera già come un dispositivo di questo tipo, in quanto non si limita a trasmettere una immagine o una rappresentazione della voce, ma veicola la voce stessa. Il telefono separa la voce (o corpo sonoro) dal corpo fisico e la trasmette a distanza. 'Il mio corpo fisico è qui, mentre il mio corpo sdoppiato è al contempo qui e altrove'. Il telefono attualizza già una forma parziale di ubiquità e il corpo sonoro del mio interlocutore subisce a sua volta il medesimo sdoppiamento, di modo che entrambi ci troviamo contemporaneamente qui e altrove, ma formando un incrocio rispetto alla dislocazione dei corpi fisici. I sistemi di realtà virtuale trasmettono più di una semplice immagine: una quasi presenza. Alcune funzioni corporee, come la capacità di manipolazione legata al coordinamento sensomotorio in tempo reale, vengono di fatto traslate a distanza nel corso di un processo tecnico complesso che in certi settori dell'industria è padroneggiato sempre più perfettamente.
Rovesciamenti. Che cos'è a rendere visibile il corpo? La sua superficie: i capelli, la pelle,, la vivacità dello sguardo. Oggi l'iconografia medica mette a nudo l'intero corpo senza bisogno di incidere la pelle sensibile, né sezionare vasi, né tagliare tessuti. Raggi x, scanner, sistemi di risonanza magnetica nucleare, ecografie, organoscopie virtualizzano la superficie del corpo. A partire da queste membrane virtuali si possono ricostruire modelli digitali tridimensionali da cui ricavare riproduzioni solide. Nel regno del virtuale l'analisi e la ricostruzione del corpo non implica più né dolore né morte. La pelle virtualizzata si fa permeabile. L'organismo è rovesciato come un guanto. L'interno passa all'esterno pur rimanendo dentro, perché la pelle è anche il confine tra sé stessi e l'esterno. Con la telepresenza e i sistemi di comunicazione i corpi si dislocano all'esterno, diventando simulacri di sé stessi.
Ipercorpi. Nel loro essere fuori i corpi diventano anche della collettività. Al giorno d'oggi cornee, ovuli, embrioni e soprattutto plasma vengono 'socializzati', scambiati e conservati in apposite banche. Il sangue deterritorializzato scorre da un corpo all'altro attraverso una vasta rete internazionale. Il corpo collettivo (o socializzato) ritorna a modificare la carne privata, talvolta riportandola in vita o fecondandola in 'vitro'. Ciascun corpo diviene parte integrante di un immenso ipercorpo ibrido e mondializzato.
La realtà virtuale (RV)
Per capire perché la realtà virtuale è un potentissimo strumento di conoscenza, bisogna capire due cose molto semplici. La prima è che cos'è la RV. Al di là di ogni complicazione tecnica, la RV è la possibilità di riprodurre un ambiente o un oggetto. Si può fare attraverso una tecnologia di computer, ma l'importante è che si faccia in una maniera e con degli strumenti che permettano di presentarlo allo spettatore in un modo che tende a essere non distinguibile dalla realtà. Se si raggiunge questo livello, possiamo dire che la percezione viene ingannata, l'azione si svolge come se si stesse nella realtà e non lavorando attraverso uno strumento. Noi siamo abituati a lavorare attraverso gli strumenti informatici, adesso, prima abbiamo usato le macchine da scrivere, e sappiamo che imparare a lavorare con queste macchine non è facile, richiede certi adattamenti, certi aggiustamenti. Dal punto di vista psicologico abbiamo due modi di conoscere le cose: l'apprendimento diretto attraverso i sensi (es. la vista), e quello indiretto attraverso l'intelletto (es. la lettura). L'apprendimento diretto è quello più naturale, lo stesso che utilizzano i bambini. Mentre l'apprendimento intellettuale è un lavoro faticoso, selettivo. Qualcuno lo sa fare, qualcuno non lo sa fare. Per impararlo bisogna studiare e fa fatica farlo e quindi non tutti ci riescono e non tutti vanno lontano. La combinazione di queste due cose, fa sì che la RV possa essere un potente strumento di conoscenza; e questa è la seconda cosa da afferrare. Nella nostra cultura, conoscenza è sinonimo di lettura di libri e di fatica. Non ce lo siamo inventati perché eravamo particolarmente perversi e ci piaceva inventare un modo difficile per apprendere le cose, ma fino ad oggi, fino all'avvento della RV, quello era l'unico modo che avevamo per conoscere alcuni tipi di cose molto importanti: ci sono cose che non si vedono, cose che non si sentono e cose che non si toccano. Tutto ciò che si riferisce a distanze enormi, per esempio al di fuori della nostra terra, tutto ciò che si riferisce a mondi infinitamente piccoli, cioè a tutto ciò che in realtà non possiamo percepire direttamente e non possiamo toccare direttamente, non può essere conosciuto e studiato nel modo naturale. Per questo motivo, nel corso dei secoli, a mano a mano che le nostre conoscenze si approfondivano, noi abbiamo dovuto tradurlo in questi simboli, che possiamo elaborare solo con la mente, pensando. Per esempio, i concetti di forza che studiamo nella fisica, dobbiamo immaginarli, perché non li possiamo vedere operare fisicamente. La RV invece permette di costruire ambienti simulati. Al CNR di Roma il prof. Francesco Antinucci con i suoi collaboratori ha costruito uno di questi ambienti in cui le forze si vedono e si 'toccano', cioè si può interagire per vedere gli effetti che producono. In questa maniera si riesce capire e conoscere il comportamento dei fenomeni con apprendimento diretto, in modo naturale. Quindi significa che, paradossalmente, il progresso delle tecnologie, l'aumento di potenza e di velocità riporta finalmente le macchine al servizio dell'uomo e della sua comunicazione naturale. Più si va avanti, più la tecnologia diventa sofistica, più ha il compito di tornare alla natura, ma tornare addirittura alla natura più semplice. Con la RV arriva al culmine la tecnologia user friendly.
Infosistema
Lo sviluppo delle tecnologie informatiche ha portato alla nascita di un vero e proprio sistema di scambio informazionale con le sue precise regole. L'aumento della circolazione del dato ha reso molto complesso l'uso dell'informazione. Per non essere travolti da essa le grandi comnie economiche e mediatiche stanno già facendo delle scelte per noi, come l'invenzione di sistemi per la ricerca automatizzata, e noi, a nostra volta, dobbiamo fare precise scelte nei riguardi dell'informazione, per non esserne travolti e per non esserne traviati.
Velocità dell'Informazione
Il cyber-spazio diventa sempre più pervasivo e più veloce, mentre il cyber-tempo, cioè la nostra capacità di elaborazione dell'informazione che ci proviene dal mondo 'dentro, cyber-spazio, ha dei limiti invalicabili. Il rapporto tra cyber-spazio e cyber-tempo è il grande problema dell'epoca in cui stiamo entrando. La velocità reale è considerata pari allo zero, benché in realtà sia ancora strettamente legata alle capacità dell'hardware e dei collegamenti fisici. Insomma è vero che un bit viaggia alla velocità della luce, ma è anche vero che per formare un documento servono numerosissimi bit, e che questi non riescono a passare tutti contemporaneamente per lo stesso cavo di trasmissione. Detto questo per precisione tecnica, si può anche affermare che il tempo di trasmissione o di comunicazione è stato ridotto in maniera considerevole. Sono stati ridotti i tempi di trasmissione, ma per avere valore un'informazione deve necessariamente essere elaborata. Dove con 'elaborazione dell'informazione' si intende qualsiasi azione intellettuale sul dato, dalla semplice lettura all'utilizzo della stessa informazione per scopi diversi. La velocità con la quale si ha informazione, porta anche ad avere in breve tempo un enorme mole di dati.
Il gap ora sta quindi non nel trasferimento stesso del dato, problema predominante in tutta la storia dell'informazione, ma nella sua elaborazione. La velocità di trasferimento è zero approssimativa, ma la nostra velocità nell'elaborazione del dato è ancora legata ad un lento approccio interpretativo. L'esubero di dati non permette alla nostra mente di stare al passo dell'informazione digitale, creando così una desincronizzazione tra cervello e bit. Si è creato, con la comunicazione globale, un mondo immateriale dell'informazione nel quale l'uomo può avere informazione in modo rapido ed efficiente. Si è puntato lo sviluppo tecnologico, come ancora avviene, nella rapidità, nell'efficienza e nella quantità. Arrivando così a creare un infosistema, nel quale l'uomo non è in grado di interagire consapevolmente con il dato perché la sua struttura biofisica non glielo consente. Non può l'uomo elaborare i dati in veloce formato numerico/binario, come fa la macchina, ma ha bisogno della 'interfaccia' simbolica per compiere azioni critiche sul dato.
I pesi dell'Informazione
L'informazione ha vari 'pesi', il dato è infatti più o meno importante. Verso la metà del Novecento le teorie dell'informazione ebbero una scossa dall'opera del matematico ed ingegnere Claude Shannon, che, con uno schematismo riduzionistico, formulava i teoremi sull'entropia (quantità d'informazione generata in media da una sorgente) e sulla capacità (quantità d'informazione trasmessa in media da un canale).
Lo schema di Shannon rispecchia una situazione di trasmissione unidirezionale (dalla sorgente al destinatario) ed è basata sull'ipotesi che entrambi i soggetti abbiano lo stesso codice di comunicazione e posseggano una conoscenza perfetta dell'universo informazionale entro cui si svolge la trasmissione. In questo modello la comunicazione avviene tramite una successione (discreta) di messaggi elementari scelti da un repertorio (o dizionario) la cui composizione è nota ad entrambi i soggetti e che rimane immutata nel corso di tutta la trasmissione. La legge statistica che regge le scelte è fissa e nota ad entrambi. Nella teoria di Shannon il significato dei messaggi è del tutto ignorato: la teoria riguarda solo il cosiddetto livello sintattico, egli era interessato all'informazione presente nelle differenze. Una informazione può essere definita una differenza che genera altre differenze lungo il canale di comunicazione sorgente/destinatario. Le differenze che non producono altre differenze non sono considerate informazione. Questa definizione d'informazione presuppone l'esistenza di un osservatore (uomo o macchina) in grado di rilevare e riprodurre le differenze. E poiché ciascun osservatore ha risorse ed interessi diversi, ciascuno osserverà differenze diverse: dunque l'informazione ha carattere relativo.
La 'teoria di Shannon' è basata sulla definizione matematica della quantità d'informazione [I(E)] fornita da un evento E; dove l'informazione I fornita da un evento E è uguale al logaritmo negativo della probabilità che l'evento si presenti.
I(E)= - log P(E)
Rappresentabile anche graficamente
Smart Agents
La politica user friendly, ha portato l'industria del software allo sviluppo di agenti intelligenti, dei veri e propri programmi per la ricerca delle informazioni. Basati su algoritmi di tipo neurale gli Smart Agents, studiando le abitudini di ricerca del fruitore, alla fine arrivano ad avere un comportamento simile a quello dell'utilizzatore nella scelta delle informazioni. Sono dei programmi che simulano la nostra libera scelta. Si utilizza quindi la matematica per affidare la cernita del dato e non si può pretendere che la scelta avvenga per libera associazione, come avviene nel nostro cervello; è infatti una scelta quantitativa e non qualitativa. Il dato selezionato dallo Smart Agent sarà non quello più 'interessante', ma quello con maggior quantità di termini simili. Il che porta addirittura ad una annullamento della possibilità di 'virata intellettuale'. È sicuro comunque che grandi tagli all'informazione andranno fatti, per poter permettere valutazioni circostanziate e non dispersive. L'informazione autonoma, non vincolata dai comuni canali mediatici dell'informazione, è stata considerata la grande rivoluzione giornalistica del secolo. Avere il dato non mediato inizialmente ha aperto inaspettati spiragli di libertà per poi diventare la causa stessa della moderna disinformazione. Avere troppi dati, spesso non certificati, ha portato alla scelta della 'iper-oggettività matematica'; cioè in un sistema informazionale (infosistema) nel quale la notizia viene considerata come dato matematico; e troppe notizie, oggettivamente e matematicamente inconfutabili, non hanno fatto altro che sviare dal valore dell'interessante. Gli Smart Agents lavorano sull'aspetto puramente statistico della presenza del 'termine', ma i lavori sono già iniziati per permettere ai futuri Smart Agents di fare scelte 'critiche' sull'informazione. La cosa naturalmente potrà avvenire solo quando saranno stabiliti gli standard di certificazione dell'informazione a livello internazionale anche se sempre tramite grandi canali mediatici. Infatti benché si pensasse che la rete avrebbe ucciso la mediazione, in realtà essa non ha fatto altro che aumentare in maniera esponenziale i mediatori, arrivando così all'effetto di ipermediazione dell'informazione.
Scelta ipo-informazionale
Il lavoro principale perché si sviluppi un infosistema stabile, una Creatura matura, è quello di rendere l'informazione 'pulita'. Di avere insomma strumenti che ci permettano di scegliere il dato puro e non l'analisi manipolata di quel dato. Sviluppare sistemi di standardizzazione del mediatore informazionale porterà sicuramente ad una maggior sicurezza nella navigazione tra i dati. È vero che per avere stabilità bisogna sacrificare qualcosa e/o qualcuno. Si tende a immolare così le piccole voci solitarie all'interno dell'infosistema o le ideologie minoritarie. Ad entrare nel grande sistema di standardizzazione saranno infatti i grandi mediatori o 'trust mediatici', più che i piccoli e economicamente poco potenti 'urlatori solitari'. Bisogna dare ascolto al piccolo urlatore o alla grande équipe di 'esperti in materia'? Gli esperti potrebbero falsare il dato per problemi economici, ma l'urlatore potrebbe affermare cose e spacciare dati senza alcuna cognizione di causa. Se è vero che da una parte la standardizzazione porterà sicurezza, è pur vero che l'informazione sarà sempre più canalizzata e mediata dal sistema economico. Il contrasto è netto ed insuperabile, la stabilità starà proprio nell'accettare un'instabilità radicale dell'infosistema, con i suoi movimenti interni, scontri rivoluzionari e flames, come nella vita reale perché anch'esso fa parte della vita reale.
Conoscenza
La conoscenza ha un valore completamente diverso dal possesso del dato, essa si basa non sull'aspetto quantitativo dell'informazione, ma su quello qualitativo. Con l'avvento dell'ipertesto digitale, con lo spostamento di baricentro nella lettura, sono venuti ad essere necessari nuove metodologie d'approccio all'immensità dei dati, tra le quali l'ergonomia intellettuale è la più proandata. Grave resta il problema della formazione, che viene disorientata e sempre più allontanata dalla ura del maestro.
Hypertext
'Sappiamo che nei testi alfabetici non vi era separazione fra le parole. Solo progressivamente furono inventati gli spazi tra i vocaboli, la punteggiatura, i paragrafi, le suddivisioni in moduli, gli indici, gli apparati, l'iminazione, la rete dei rimandi delle enciclopedie e dei dizionari, le note a piè di ina . insomma tutto ciò che serve a facilitare la lettura e la consultazione dei documenti scritti'. Queste tecnologie ausiliari alla lettura sono state le prime forme di ipertestualità. La abitudinarietà dell'uso del 'rimando' ipertestuale ha impedito per secoli la sua focalizzazione dal punto di vista teorico, benché la lettura del testo in maniera 'non sequenziale' avvenisse su qualsiasi scritto con riferimenti locali/interni o globali/esterni o nella parola attraverso gli 'ipse dixit'.
L'ipertestualità può ritenersi quindi da sempre un elemento fondante della comunicazione. Perché se era così comune l'ipertesto non ha assunto la fama dovuta? Forse a causa della polimedialità. Cioè per il fatto che i collegamenti avvenissero su supporti differenti e fisicamente e geograficamente distanti. Del valore dell'ipertesto ci si è resi conto quando il collegamento è stato possibile all'interno dello stesso supporto: quello digitale. Cioè quando si è passati da polimedialità a multimedialità.
Ed è naturalmente all'interno della rete che l'ipertestualità può raggiungere il suo massimo potenziale. Infatti è nel ciberspazio, 'la turbolenta zona di transito per i segni vettorializzati', che si 'manifesterà sempre più la tendenza a sostituire le copie di documenti con collegamenti ipertestuali'.
La scrittura ipertestuale viene detta, in contrapposizione alla scrittura sequenziale, reticolare, nel senso che 'la linea di scrittura della pratica alfabetica viene frammentata nella molteplicità di nodi che compongono il ciberspazio'. Dev'essere però dissipata la concezione di ipertestualità legata esclusivamente al testo alfabetico.
Ipertesto digitale 'potrebbe essere definito come una serie di informazioni multimodali strutturate reticolarmente a navigazione rapida e conviviale'.
È stato Theodor Holm Nelson che nel 1965 ha proposto il concetto di hypertext, come insieme di documenti che possano essere letti in maniera 'non sequenziale', e al concetto ha accomnato il Progetto Xanadu. Il suo progetto era 'un sistema per la letteratura', dove per letteratura egli intende 'un sistema elettronico di documenti interconnessi', dato che 'dobbiamo essere in grado di trattare la rete come un tutto, e i suoi contenuti come un 'docuverso', cioè un universo di documenti unico'.
A trovare i principi dell'ipertesto è stato il filosofo francese Pierre Lévy, 'al fine di preservare la possibilità di interpretazioni molteplici del modello dell'ipertesto':
Principio di metamorfosi, che rifiuta la staticità e che vede nella modificabilità continua il valore stesso dell'ipertesto; 'così come il fiume di Eraclito, l'ipertesto non è uguale a sé stesso'.
Principio di eterogeneità, per cui l'ipertesto si sviluppa attraverso media differenti;
Principio di molteplicità, attraverso il quale una rete si organizza su un modello 'frattale, cioè qualsiasi nodo o legame può risultare composto di una rete.
Principio di esteriorità, la rete non possiede unità organica e quindi gli sviluppi dell'ipertesto sono provocati dall'interazione di fenomeni esterni.
Principio di topologia, la rete non è nello spazio, ma è lo spazio, il ciberspazio, l'orizzonte attraverso il quale si naviga; la navigazione ipertestuale è dunque un'esperienza immersiva.
Principio di mobilità dei centri, la rete non ha centro, o piuttosto, ha tanti centri luminosi in continuo spostamento; la rete non possiede nemmeno centro originario.
I dispositivi ipertestuali nelle reti digitali hanno deterritorializzato il testo rendendo la consultazione immediata.
Ma lo svilupparsi esponenziale dei nodi ipertestuali ha trasformato il 'consultare' in 'brucare', a causa dell'enorme mole informativa.
Chi è l'autore dell'hypertext.
'L'autore è chi visualizza il sito'. La maggior parte delle persone leggono un libro o un articolo di una rivista dall'inizio alla fine, da sinistra a destra, dall'alto in basso. È lo scrittore, colui che realizza il testo sequenziale, a creare l'esperienza per il lettore. A prescindere dalla personale interpretazione del lettore stesso, egli è guidato dall'inizio alla fine del suo percorso. Nel processo di lettura ipertestuale sono i lettori coloro che creano la propria esperienza, in altre parole sono loro gli autori.
'La lettura (normale) permette di attualizzare il testo' . La lettura permette al testo di diventare interfaccia con noi stessi. 'Il testo funge da vettore, da pretesto all'attualizzazione del nostro personale spazio mentale'. Con la digitalizzazione invece il testo viene potenzializzato. Non ha più un andamento unidirezionale, non è più un media 'push', dal testo al lettore. Lo schermo informatico è una nuova 'macchina per leggere'. Ogni lettura al computer diventa una edizione, un montaggio singolare. 'Il navigatore partecipa quindi alla redazione o quanto meno all'edizione del testo che 'legge' poiché è lui a determinare la sua organizzazione finale (la dispositio della retorica antica)'. Con l'ipertesto quindi ciascuna lettura diventa un vero e proprio atto di scrittura. La virtualità del testo alimenta la mia intelligenza in atto, costringendola a fare delle scelte di percorso. Non più, come nel testo sequenziale, un atto di pura accettazione in cui l'unica volontà è l'interpretazione. La lettura ipertestuale è un insieme disarmonico di scelte puramente soggettive.
Ergonomia Intellettuale
La facilità di reperimento dei dati grazie alla digitalizzazione e l'ingrandirsi in maniera esponenziale dei nodi ipertestuali in rete ha portato ad avere una immensa quantità di informazioni, anche quando si ricercano informazioni precise e circostanziate. La conoscenza è passata dalla euristica alla 'discriminazione'. Cioè si è passati da un'educazione secolare di studio tramite ricerca d'informazione, alla necessità di arrivare alla verità tramite 'tagli'. Il cambiamento è notevole. Il verbo inglese 'to cut' (tagliare) ha assunto un pregnante significato sia per la conoscenza che per i vari tipi di composizione artistica. Il problema è quello della eccessiva quantità di informazioni. Quale deve essere il nostro comportamento di fronte alla marea di dati dilaganti? Dev'essere quello dell'ergonomia intellettuale.
Il nostro secolo è caratterizzato da scienze ergonomiche. Prima dall'ergonomia meccanica, in cui noi abbiamo proiettato le nostre funzioni nel mondo meccanico ed elettronico; ed oggi quella intellettuale. Prima di essere una direzione scientifica, l'ergonomia intellettuale, è la teoria che evidenzia il bisogno del 'taglio', per non restare travolti dal dato puro. Voler tagliare non significa impedire al dato di venire alla luce, ma impedire al dato non interpretato di influire significativamente nelle scelte umane. Ritorna così ad acquisire notevole importanza l'ermeneutica, la quale può essere utilizzata con profitto solo dopo la cernita iniziale del dato. La necessità di risparmiare gli sforzi intellettuali, come nella scelta delle notizie utili, diviene sempre più inevitabile. La tecnologia che si sviluppa dalla ergonomia intellettuale è detta 'user friendly', cioè dedicata alla semplificazione della tecnologia. La nascita di reti neurali dedicate alla ricerca dell'informazione 'interessante' ha ridotto la difficoltà di scelta, ma anche il potere individuale di scelta. Inoltre, seconda la prospettiva proposta da De Rosnay, lo 'user friendly' ha tra le sue eventualità quella di interlacciarsi con il cervello, applicando la tecnologia alla biologia. 'L'ultima tappa è il trasferimento diretto di informazioni dal cervello alle macchine. I giapponesi lo chiamano 'silent speech': discorso silenzioso. Il computer riesce a scoprire la pronuncia di una parola prima che le labbra si muovano per pronunciarla, individuandola direttamente nel cervello'.
Benché favorevole allo sconvolgimento dell'umano, lo stesso De Rosnay avverte che la velocità dell'informazione porterà all'esplodere de 'l'inquinamento dell'informazione', con il rischio di trasformare anche la formazione in informazione.
La nuova ura di maestro
La nostra cultura, la nostra civiltà, fin dalle origini, fin dall'epoca dei Greci, ha conosciuto quello che i Greci chiamavano la 'paideia', e i Tedeschi 'Bildung', cioè l'educazione, la formazione. Oggi, soprattutto attraverso la diffusione dell'informazione a distanza non c'è più il rapporto diretto fra il maestro e l'allievo, non c'è più educazione, ma solo informazione. Questo può produrre la crescita dell'informazione, ma la diminuzione della formazione, della conoscenza e del sapere. Oggi viviamo un conflitto tra il tempo corto della televisione e dei media e il tempo lungo dell'educazione. Il tempo corto si manifesta nel video-clip, nello spot della pubblicità, nello 'zapping' che è un saltare da una cosa all'altra. Abbiamo un mosaico di conoscenze e non l'integrazione che crea cultura.
Il tempo di mediazione con l'informazione è stato ridotto al minimo. L'importante è avere l'informazione, non saperla gestire in senso critico.
Il problema sta nell'equilibrio che in futuro bisognerà trovare tra la scuola reale e la scuola virtuale.
Troppo spesso le politiche scolastiche sono state abbagliate dallo splendore della tecnologia, senza comprenderne la reale finalità. Troppo spesso lo 'strumento' viene considerato il punto di arrivo dello sviluppo scolastico, non prendendo in considerazione il fatto che lo 'strumento', non può essere che un ausilio alla didattica. L'ipertestualità è sempre stata utilizzata da docenti, che con il solo uso della parola, integravano il loro specifico sapere ad altri. Non è stato quindi l'uso dei computer ad introdurre l'insegnamento ipertestuale nelle scuole. Le moderne tecnologie invece fanno sorgere nuovi problemi. La velocità di informazione circolante può essere talmente rapida da investire un bambino con un basso livello critico. Il ruolo del docente dovrebbe diventare perciò quello di mediatore socratico, tra informazione e sapere. Inoltre gli strumenti tecnologici spesso sono conosciuti meglio dai discenti, che dai docenti. Ciò crea uno scompenso nella mediazione. Il docente deve quindi sempre più trasformarsi, non in colui il quale trasmette informazioni (quelle sono ormai ampiamente disponibili), ma colui il quale cerca di indirizzare nella scelta, colui che insegna a buttare via le informazioni inutili. Il docente deve diventare sempre più un docente etico, riprendendo ad esempio la ura dell'antico 'maestro'.
Estetica della tecnica
La tecnologia si è sviluppata in maniera quasi incontrollabile. Le tecniche da semplici mezzi, strumenti in mano all'uomo, sono diventate complesse tecnologie che avvolgono e imbrigliano il quotidiano, provocando negli uomini sensazioni nuove, di enorme grandezza e di infinita piccolezza. 'Le tecnologie sono diventate le nuove muse, a volte così incontrollabili da sembrare elementi naturali o divinità [ . ]'.
Estetica della sparizione
'La dimensione estetica è una dimensione curiosa, perché, in effetti, tutte le tecnologie nel loro aspetto artistico ci rimandano alla versione di azione'. Così come le avanguardie avevano messo in luce che ogni atto artistico può essere considerato solo in quanto atto, non per il suo prodotto. Attraverso la telematica, attraverso il computer, l'arte digitale, noi possiamo produrre immagini, segni, segnali, forme e processi creativi che non hanno bisogno del luogo fisico, ma si affidano ad un tragitto e alle dinamiche di Internet, ad una comunicazione, appunto, telematica. In questo modo l'arte arriva a smaterializzarsi e diventa anoressica, poiché il passaggio dall'oggetto al concetto diventa sempre più accentuato. L''estetica della sparizione' riguarda tutti i settori che utilizzano il digitale; si pensi, per esempio, alla smaterializzazione della moneta che oggi non è altro che informazione: non si spostano più somme di danaro, oro o preziosi, ma pure informazioni. Così nell'arte l'estetica della sparizione si assottiglia il materiale artistico a favore del concetto, dell'idea artistica. Naturalmente, la 'anoressia dell'arte' sviluppa una potenzialità enorme per artisti giovani e meno giovani, con l'introduzione di una virtualità estetica che prima l'arte non conosceva. L'arte anoressica è in qualche modo il frutto non negativo della tecnologia perché sviluppa segnali e forme estetiche che colpiscono oltre l'occhio anche il cervello del fruitore. È un'arte che si insinua nella casa, negli spazi della contemplazione, è un'arte che sostanzialmente produce anche un'altra conseguenza positiva: scardina la cornice obbligata del museo o della galleria, i luoghi deputati dove normalmente l'arte può essere contemplata, anzi ora la 'degustazione può avvenire in ogni spazio domestico, in ogni camera della nostra abitazione, nei luoghi più inusitati'. Ecco, dunque, che l'anoressia dell'arte attraverso la telematica non è una contrazione, una riduzione, un assottigliamento del corpo, ma anzi, paradossalmente, attraverso l'assottigliamento ottiene il massimo della dilatazione, di penetrazione capillare che la forma dell'arte può realizzare uscendo dal luogo di propulsione laddove l'artista ha mosso la propria mano elettronica, arrivando nei luoghi più disparati di tutto il mondo. La tecnologia, in questo senso, diviene una sorta di sostanza estetica che con i suoi vapori e le sue atmosfere può produrre effetti positivi, è quindi una sorta di 'declinazione ecologica della fantasia che, invece di danneggiare, migliorerà sicuramente il mondo'. S'è pur vero che l'anoressia dell'arte lascia aperte molte strade, la possibilità di riproduzione del digitale potrebbe aumentare, come giustamente fa notare Remo Bodei, il pericolo dell'effetto Stendhal, per il sovraccarico di stimoli. Si modifica però con l'arte digitale la contemplazione dell'opera d'arte. L'artista digitale non è più colui che indirizza l'osservatore verso un oggetto esteticamente bello, ma è colui che ha creato tutte le 'possibilità virtuali racchiuse nel meta-progetto'. L'opera d'arte digitale così non ha più limiti e l'autentico creatore di ogni prodotto artistico diventa il fruitore.
Il sublime tecnologico
L'estetica digitale è basata sul semplice fatto che con la cultura digitale, la testualità digitale, le immagini digitali si verifica uno spostamento dalla scrittura - basata su segni e superfici fisiche - ai codici. Ci muoviamo dal materiale all'immateriale. 'Il testo diventa aperto'. La maggior parte della nostra estetica è fondata su fattori associati alla tecnologia di stampa, che pongono l'enfasi sulla creatività unica di un artista, e sul fatto che l'artista è un alienato, una ura isolata per la maggior parte del tempo. Quando, viceversa, si lavora su un medium digitale, diventa chiaro, come ribadiscono i post-strutturalisti e gli strutturalisti già da molto tempo, che, in realtà, tutta la scrittura, tutta la pittura, tutta la creazione di musica è essenzialmente un'attività cyborg: un'attività collaborativa con tutta la gente che non ha mai 'scritto' nella forma artistica, con cui in genere lavora. Il carattere proprio dell'arte non è il bello. Il carattere proprio dell'arte è il significato. Tanto è vero che esiste un'estetica del brutto o molta arte che non è bella per niente. L'arte è, sostanzialmente, significato. Oggi, la ricerca estetica va molto di più avviandosi verso la sensorialità, verso quella che Berenson chiamava la 'intensificazione vitale' o le sensazioni immaginarie, piuttosto che verso questa sensazione di bello artistico; nozione, oggi, del tutto impraticabile. Gli artisti dovrebbero muoversi nella prospettiva del 'sublime tecnologico', cioè: ricerca collettiva, progetti concettuali collettivi. Che cosa hanno di estetico rispetto ad un semplice tecnico delle interfacce? Hanno di estetico che producono sensazioni immaginarie reali, attraverso le quali stimolano intensificazioni vitali, stati sensoriali veri e propri. Questo è un lavoro che è specificamente estetico, perché è un lavoro al quale i tecnici necessariamente devono o dovrebbero collaborare, ma che richiede un tipo di competenza, di atteggiamento della personalità che non ha niente a che vedere con quello del programmatore o con quello del creatore di interfaccia. Il 'sublime tecnologico' è, in qualche modo, la nozione dell'oltrepassamento dell'arte ed è un essere collocati al di là di quelle che erano le categorie specifiche dell'artistico, vale a dire: il soggetto, l'espressione, la creatività, lo stile. La nozione di sublime tecnologico, alla quale le nuove tecnologie permettono di accedere, è una nozione che liquida tutta la struttura concettuale legata all'artistico e che introduce, invece, quel sistema di categorie concettuali legate, nell'estetica tradizionale, al sublime: la nozione, cioè, di un soggetto debole, di un soggetto sopraffatto da qualche cosa che non è soggetto: 'è questa la dimensione nella quale le nuove tecnologie hanno collocato la situazione antropologica in generale'. È una situazione di debolezza del soggetto, di oltrepassamento dell'espressione, di venir meno dello stile, del venir meno di tutte quelle che erano le caratteristiche fondamentali dell'arte tradizionalmente intesa. Le nuove tecnologie hanno un'enorme influenza sulla produzione artistica. Infatti tutte le avanguardie artistiche di questo secolo sono indotte dall'avvento di nuove tecnologie. Tutte le forme artistiche, per sopravvivere, vivono un'ibridazione reciproca e anche una contaminazione da parte dei nuovi mezzi di cui dispongono. La stessa storia dell'avanguardia non si spiega se non come strategia di sopravvivenza. Il teatro di Brecht, che conta sulla mobilitazione del pubblico, ad esempio, o quello di Artaud, che fa del teatro un'esperienza del corpo, sono strategie di sopravvivenza del teatro, messo di fronte al cinema. Gli artisti tecnologici o i ricercatori estetici devono oggi rinunciare - e già lo fanno - ad alcune componenti fondamentali di quello che era l'artista della tradizione. Loro lavorano prevalentemente sul piano del concetto, i progetti su cui lavorano sono concettuali. Il concetto è condivisibile. Questo significa che la produzione può essere, deve essere, e in molti casi lo è già, una produzione concertata, collettiva. Significa che la proprietà esclusiva dell'opera è una nozione arcaica, così come lo stile che una volta caratterizzava l'artista. L'estetica contemporanea, in generale la riflessione estetologica contemporanea oggi lavora molto poco sul contemporaneo. Ciò è addirittura testimoniato dal fatto che i grandi estetologi o gli estetologi che noi abbiamo oggi, parlano ancora di arte in termini tradizionali e quando fanno degli esempi citano Holderlin o Van Gogh. 'Questo era, in qualche modo, legittimo fino ad Heidegger. Heidegger poteva ancora permettersi di discutere dell'arte in questo modo'. Oggi l'estetica deve molto di più tematizzare, molto di più problematizzare la situazione che le nuove cose, le nuove tecniche, le nuove energie ci hanno costretto a considerare. Una vera e propria riflessione estetologica su quello che sta avvenendo oggi, i filosofi preferiscono non farla e preferiscono muoversi su un terreno molto più sicuro, molto più tranquillizzante, molto più cauto che è ancora quello dell'arte tradizionale.
I Lurkers
(prospettiva sociologica)
Con la massificazione delle comunicazioni globali digitali, alcuni aspetti sociali vanno cambiando. Nella rete nascono nuove tipologie di persone, ma si rischia anche l'alienazione nella rete. Oltre però ai neo-luddisti, che criticano lo sviluppo tecnologico in sé, la nuova sociologia della conoscenza avverte: 'Restringere la propria finestra sul cortile del mondo all'angustia dei propri interessi produrrà solo degli ultraspecialisti asociali!'.
Push VS. Pull
'L'industria culturale di massa' ha contribuito a realizzare dagli anni '30 agli anni '70-'80 un processo divulgativo esteso sia ai ceti maggiormente preparati da un punto di vista culturale che ai ceti meno avvantaggiati da questo punto di vista. Il processo si é sviluppato progressivamente iniziando sempre dalle élites della società; ciò che differenzia le nuove tecnologie dalle vecchie é il fatto che le nuove saranno probabilmente in grado di diffondersi e di veicolare cultura tra tutti i ceti, in direzione orizzontale piuttosto che dall'alto verso il basso, come é avvenuto in passato. Confrontando il modello televisivo che distribuisce da uno a molti (push) con quello interattivo del Web dove ognuno può tirare giù le informazioni che vuole quando lo vuole (pull), George Gilder aveva già annunciato la morte della TV. La 'cattiva maestra' ammonita in pubblico da Karl Popper, è però ancora il collante che tiene insieme il mondo. Ma sulla lentezza delle aspettative che si avevano su Internet alcuni hanno ribattezzato la triplice W come World Wide Wait (Grande Attesa Mondiale). Quello che non si comprende è che i due modelli (Push/Pull), così diversi da non possono essere confrontati, rispondono anche a caratteristiche completamente diverse; uno implica la passività l'altro l'attività, uno non ha bisogno di conoscenze l'altro si. Quello che si potrà fare è trasformare per chi lo desideri il modello pull con un modello push automatizzato, come hanno tentato già nel 1996 i fratelli Chris e Greg Hassett con il loro software PointCast che porta le notizie a voi. Ma ciò snaturerebbe la creatività ricettiva del Web. Per questo la TV generalista, push per eccellenza, resterà in vita ancora a lungo. La preparazione, il sapere sono fondamentali in Internet, o in generale nel media pull, per potere fare scelte accurate sulla giusta informazione. Secondo Walter Cronkite un pericolo in Internet è che ci siano persone che forniscono informazioni senza il benché minimo standard etico. Ci sono in rete le riviste classiche trasposte in formato digitale o riviste nate apposta per la rete come 'Slate"; ma esistono anche numerosissime informazioni non certificate. Molti hanno la possibilità quindi di dire la verità al mondo, oppure di far passare per vero il falso. Come distinguerlo? Secondo Ted Koppel 'Il ruolo del giornalista che sa selezionare le cose più importanti è destinato a diventare sempre più importante'.
Nella rete c'è molta informazione, forse troppa. Se si trascura il fattore serendipity, la benigna possibilità di fare incontri fortuiti e fortunati sulle strade del sapere, si rischia di piallare un po' pericolosamente le digressioni che generalmente allargano le prospettive di ogni lettore.
In questa prospettiva il machete dello smart agent è il benvenuto. L'agente intelligente ci aiuterà quindi a selezionare le notizie a noi più congeniali, magari garantendone la qualità secondo il riconoscimento della certificazione dell'informazione oppure modificando le ricerche in base al nostro sviluppo conoscitivo, grazie agli algoritmi delle reti neuronali.
La società che cambia
'Si sposta il centro di gravità, non più sull'atomo ma sul numero binario'. Una società dell'informazione è centrata essenzialmente su entità immateriali e quindi sui bit. Ci si arriva sostanzialmente attraverso quattro ondate, che brevemente sintetizzano la rivoluzione dell'IT dagli anni Sessanta ad oggi. Il primo periodo è quello degli elaboratori centrali, dei mainframes, il cui paradigma di riferimento sono le istituzioni e le organizzazioni. La seconda ondata è quella che è caratterizzata dal personal computer, che è degli anni Ottanta e il paradigma di riferimento a questo punto diventano gli individui, sia gli individui all'interno delle aziende, che progressivamente vengono collegati da ponti che sono le reti locali, sia gli individui all'interno delle loro case, alla fine degli anni Ottanta. Il periodo attuale è il periodo che è segnato dall'ascesa delle autostrade digitali, ovvero dalla connessione, in un'unica infrastruttura a livello mondiale, di tutte quelle isole di cui abbiamo appena parlato. Questa condizione attuale è appunto quella che consentirà il passaggio alla 'quarta ondata', cioè al periodo della costruzione della vera e propria società dell'informazione, caratterizzata dalla centralità di un contenuto completamente digitalizzato e totalmente convergente. Si sta sviluppando quella che Pierre Lévy ha definito 'intelligenza collettiva'. Anche se forse l'espressione migliore per descrivere tale processo l'aveva avuta Orson Welles, tempo prima, quando aveva detto che 'lo scrittore lavora con la penna e il pittore lavora con il pennello e il cineasta lavora con l'esercito', perché aveva sottolineato che, per quanto riguarda il cinema, si trattava di un lavoro collettivo, ma dicendo 'esercito' ci ricordava che questo lavoro collettivo non era fatto di persone tutte uguali, tutte felici di lavorare insieme ma, piuttosto, che si trattava di un lavoro organizzato con dei ruoli, delle gerarchie e anche, come succede in tutti i buoni eserciti, con dei problemi di conflittualità all'interno.
Le collaborazioni hanno fatto sorgere una necessità a chi si avvicinava alla rete: l'anglofonia. In realtà nella rete si utilizza un gergo. È vero che gli elementi gergali ad Internet connessi, sono anglicizzanti, ma un gergo è tutto tranne che una lingua. Quello che si usa principalmente in Internet è un 'broken English', grazie alla caratteristica sonorità plastica della lingua inglese si può sintetizzare con semplici suoni, o con vere e proprie sigle gergali. Per esempio: 'you' (= tu) viene sostituito con 'u'; 'to' (= a, verso) con '2'; 'are' con 'r' e 'asl?' significa 'quanti anni hai? di che sesso sei? E da dove digiti?'; ecc.
Ora però inizia a 'rompersi' anche l'italiano: dgt significa digiti, ecc.
La rete si è sviluppata negli USA, benché sia nata al CERN di Ginevra, come del resto gran parte del settore informatico. Questo ha spinto coloro che volessero usufruire della rete in maniera soddisfacente all'apprendimento della lingua inglese. È un grosso cambiamento nella società mondiale, il fatto che la lingua più parlata prima di Internet, lo snolo, sia stato soppiantato dalla lingua più utilizzata nel settore tecnologico, l'inglese. In generale ad affermarsi nel mondo è l'utilizzatore medio di Internet: cristiano, bianco, ceto medio/alto, anglofono. Benché quindi si proandi come multietnica, la rete è il potenziometro della classe sociale meno diffusa al mondo.
Il popolo della rete
Il popolo della rete appartiene in media ad un ceto, ma è aperto ad ogni nuovo membro. On-line si possono perdere tutte le differenze esterne, come sesso, razza, altezza, religione ecc. Vale infatti il 'non si vede, ergo non rileva'. La vera differenza sta nella competenza telematica. La literacy telematica garantisce infatti oggi molte opportunità supplementari a chi la possiede. In realtà quindi non vengono fatte discriminanti coscienti, se non quelle linguistiche. Da filtro all'accesso a Internet fanno ancora i costi, soprattutto in Italia ancora molto alti.
In buona parte le nuove tecnologie ripropongono il problema della divaricazione socio-culturale fra le persone. La tecnologia del computer, però, è relativamente più semplice e più popolarmente accettabile, più connessa al nostro mondo: in questa realtà multimediale la giovane generazione si orienta bene, come pure l'anziana, poiché risulta più semplice attivare e usare un computer, che non sviluppare la capacità di leggere ed acquisire tranquillità nel consultare un libro. Visti in questa prospettiva, 'gli effetti della distanza culturale fra le persone che può provocare l'approccio alle tecnologie, possono essere minori, anche se esistono, rispetto alla distanza culturale di qualche generazione fa'. Il problema dell'analfabetismo informatico, per esempio, è ancora presente. Ci sono vari gradi di conoscenza informatica. Il livello cognitivo più elementare consiste nella capacità di orientamento dinanzi ai comandi della tastiera per poter scrivere un testo, o per produrre un grafico, o per richiamare qualche altro testo. Questo processo di conoscenza richiede uno sforzo di alfabetizzazione di poco più complesso di quello che richiedeva anche l'uso di una macchina da scrivere. Un grado ulteriore di alfabetizzazione elettronica consiste invece nel capire come i programmi sono strutturati: ciò richiede uno sforzo molto più impegnativo, al quale non tutti sono abituati. In questo campo di conoscenza si viene quindi formando una élite. La stessa distinzione viene fatta tra gli utenti della rete, coloro che usano la rete per comunicare, fare surfing, chattare, ecc., e coloro che invece colgono in pieno le potenzialità della rete e la utilizzano per ricerche avanzate o comunicazioni sperimentali. Ad utilizzare in maniera intelligente le comunicazioni globali sono gli scienziati, gli studiosi, e perfino gli hackers buoni.
I contatti avvengono attraverso chat e newsgroup e non è raro che dopo una lunga relazione on-line avvenga un incontro reale in gergo un F2F (face to face).
Tra tutti i frequentatori buoni e cattivi della rete un tipo di navigatore spicca tra tutti: il lurker, il 'contemplativo'. Il lurker è una sorta di ignavo contemporaneo. È colui che naviga, gira nei newsgroup, nelle comunità virtuali, nei siti, solamente 'osservando' senza mai cioè intervenire e/o schierarsi nelle discussioni né in maniera pubblica né in maniera privata e senza quindi lasciare traccia (volontaria) del proprio passaggio. La ura del lurker sembra misteriosa, anche se in realtà spesso è legata alla curiosità e alla timidezza, oppure alla semplice paura di fare gaffe digitali. Anche nella rete, come nella vita civile, si utilizza un codice di comportamento formale, che va rispettato: la Netiquette. Chiunque non usufruisca della Netiquette è riconoscibile e può essere distinto dagli altri frequentatori 'come un uomo elegante veniva distinto dal volgo'. Per ovviare i problemi comunicativi della comunicazione scritta le sensazioni vengono trasmesse tramite simboli grafici detti emoticons o smiley, ma si può arrivare anche a liti furiose: i flames. Si può litigare in rete e per farlo non si usano solo parole più forti, ma si scrivono anche in maiuscolo. Scrivere in maiuscolo significa strillare ecco perché la Netiquette lo sconsiglia.
Le regole nell'etichetta della rete sono molte, ecco perché spesso un newbie fino alla sua piena conoscenza delle tecniche comportamentali preferisce solo osservare: essere un lurker.
Luther Blissett
'Io sono Luther Blissett. Io mi rifiuto di essere limitato da qualunque nome. Io ho tutti i nomi e sono tutte le cose. Incoraggio tutti i gruppi pop ad usare questo nome. Io cerco l'illuminazione attraverso la confusione. Io prospero sul caos. Io respingo il concetto di copyright. Prendi quello che puoi usare. Demolisci la cultura seria'.
Questo è il manifesto programmatico di Luther Blissett, uno dei più enigmatici personaggi culturali, o meglio controculturali, degli ultimi anni. Nato con i moderni mass media di tipo pull e ad essi dichiaratamente nemico, Luther Blissett in realtà non è una persona, non esiste come individuo. Una delle definizioni che si è dato è quella di 'co-individuo', una entità cioè composta da centinaia di persone che in Italia e all'estero usano il suo nome per performance artistiche particolari e soprattutto per incredibili beffe ai danni dei media tradizionali. Il nome deriva forse da un ex calciatore del Milan, ma con Blissett nulla è certo e tutto è il contrario di tutto.
Luther Blissett balza agli onori della cronaca nazionale nel 1996, confezionando un falso video su presunte messe sataniche nel viterbese. La beffa è essa stessa diabolicamente perfetta, concepita come un film di Alfred Hitchcock, dura mesi e mesi, coinvolge giornali e tv locali e culmina con l'invio di un filmato dove si vedrebbe una messa nera con sacrificio finale umano. Invece è tutto falso, la cassetta completa, inviata naturalmente dallo stesso Blissett ai media, svela che il rito satanico è in realtà una sceneggiata, con tanto di tarantella finale ad opera della supposta vittima.
Altre beffe hanno coinvolto la trasmissione 'Chi l'ha visto?', sguinzagliata alla ricerca della ssa di un presunto artista-illusionista inglese. E ancora, alla biennale di Venezia del 1995, giornali e riviste si sono lanciati alla ricerca della scimmia pittrice, data come appuntamento clou della manifestazione. Il Resto Del Carlino lo scorso anno ha dato ampio risalto alla storia di una prostituta sieropositiva che bucava i preservativi dei suoi clienti, pubblicandone solo le iniziali: L. B. Blissett lascia sempre un marchio, un codice, una sigla, qualche cosa che possa far capire al beffato di essere stato vittima di uno scherzo.
Un falso testo del guru telematico Hakim Bey ha tratto in inganno numerosi critici, presi in giro da Blissett che citava un tale professor Mortais Lee, che letto al contrario suona come 'li' mortè', una colorita espressione romanesca.
Una clamoroso beffa ha avuto per vittima addirittura la Mondadori: lo scrittore Giuseppe Genna è stato convinto via e-mail di aver ricevuto un testo di controcultura particolarmente importante. Pubblicato il libro, Mondadori e i giornali ricevono il consueto dossier da Blissett: il testo non è altro che spazzatura telematica, una bufala insomma, il libro viene stroncato, Genna e Mondadori dileggiati e tutta la storia appare naturalmente su Internet sui siti dedicati a Blissett.
Luther Blissett è uno, nessuno centomila; per dirla con il suo manifesto, tutti possono essere Luther, basta assumerne il nome e fare qualche cosa che non sia riconducibile ad un solo individuo. 'La negazione dell'identità insieme alla confusione generata nei mass media è l'obiettivo di Luther, che si alimenta con i riti e le paure quotidiane, AIDS, violenza, solitudine". La sua esistenza è come una leggenda metropolitana, incerta e senza origine e con le leggende si mescola e si confonde. Prospera e fa proseliti su Internet: la Rete è infatti il luogo ideale per un individuo multiplo senza una identità, che assume di volta in volta la personalità di chi lo adotta.
Blissett si può ricondurre al movimento neoista e al plagiarismo: copiare ed usare le parole degli altri è 'un diritto/dovere, le idee non sono proprietà di nessuno'. Allo stesso movimento, ma con forme diverse, appartiene Karen Eliot, un'altra co-identità o identità multipla. Non è mai nata ma esiste, dietro la sua identità si può celare chiunque, il concetto di responsabilità individuale viene negato.
Karen è un'altra importante identità multipla di grande importanza per il movimento neoista: nata prima di Blissett, ne anticipa i modi, anche se i suoi obiettivi sono più dichiaratamente anti-artistici e più definiti.
Luther Blissett si è confrontato con la realtà quotidiana in un'aula di tribunale per banali questioni urbane. Durante un happening di Blissett i partecipanti sono convenuti su un autobus, per festeggiare con pasticcini e bibite. Agli allibiti controllori hanno però dichiarato di essere una sola persona, Luther Blissett, e di dover are un solo biglietto. I poliziotti chiamati dai controllori non hanno apprezzato lo spirito della manifestazione, denunciando tutti ed creando su Internet un dibattito noto come 'processo a Luther Blissett'.
Da un lato i partecipanti al 'bus neoista', senza identità e personalità univoca; dall'altro la giustizia ordinaria, basata sui fatti certificabili, sulle responsabilità da accertare. Non c'è dubbio che, indipendentemente dal vincitore, è un processo culturalmente interessante e che crea non poche polemiche e difficoltà anche pratiche, ma d'altra parte il manifesto finale di Luther Blissett recita:
'se la vita fosse semplice non ci darebbe nessun piacere'.
Gaia
(prospettiva ecologica e antropologica)
L'uomo e la natura; diventa sembra più importante equilibrare la convivenza. L'uomo deve fare dei cambiamenti fondamentali per affrontare il futuro. Questi cambiamenti sono possibili grazie anche alle ecologiche tecnologie informatiche. La scienza tenta di trovare soluzioni di tipo genetico ai problemi del mondo, ma forse la strada giusta è un'altra.
L'Homo Symbioticus
Fino ad adesso abbiamo conosciuto l'homo sapiens, l'homo faber ed l'homo oconomicus. Adesso Joel De Rosnay, scienziato francese di indiscussa fama, propone/prevede l'avvento dell'uomo simbiotico. Egli ha proposto anche, mitizzandolo un po', l'uso di un sistema complesso, composto da scienze naturali e scienze sociali, chiamato Cybionte. Ma la ura antropologica dell'homo symbioticus è molto più scientifica e articolata.
L'homo sapiens sa di sapere, mentre l'animale non ha l'autocoscienza. L'homo faber costruisce degli utensili che nel tempo si sono evoluti fino a diventare le macchine che sono intorno a noi oggi. L'homo oconomicus rappresenta ciò che siamo diventati possedendo e godendo beni e servizi 'in modo egoista e facendoci diventare degli ego-cittadini'. Se continuiamo con questo atteggiamento da 'parassiti del pianeta', da fruitori egoisti - le nazioni sviluppate rispetto alle nazioni in via di sviluppo, le nazioni industriali in rapporto al resto del mondo - andremo verso catastrofi e crisi assai gravi. Da qui è nata l'idea dell'homo symbioticus. Non è un uomo diverso fisicamente dall'uomo contemporaneo, ma De Rosnay pensa che 'saremo noi stessi fatti di carne e sentimenti, ma connessi con mezzi estremamente potenti di elaborazione dell'informazione e di comunicazione audiovisiva[]'. La tv, i sistemi multimediali, Internet e le autostrade dell'informazione, sono solo l'inizio di quello che ci aspetta nel terzo millennio. Non avverrà una metamorfosi nell'aspetto biologico, ma bisogna prepararsi a superare quella che lo scienziato francese chiama la 'mediamorfosi', piuttosto che essere schiavi della nuova rivoluzione digitale.
L'evoluzione dall'homo sapiens a quello symbioticus è durata millenni, ma il cambiamento antropologico dell'homo è diventato più frequente negli ultimi secoli, quasi in maniera esponenziale. Infatti l'evoluzione antropologico-culturale ha ritmi maggiori rispetto all'evoluzione genetica naturale. Per spiegare l'evoluzione biologica, Jean Baptiste Lamarck aveva proposto un meccanismo basato sull'ereditarietà dei caratteri acquisiti. In realtà le cose non vanno così, si è scoperto che esiste una barriera che impedisce al genotipo il passaggio delle modificazioni fenotipiche. Cioè se un individuo nella propria vita si abbronza perché sta molto al sole, non per questo i suoi li nascono più abbronzati, ma nascono più o meno con la stessa capacità di abbronzarsi. Il fatto che i caratteri acquisiti non vengano ereditati è un grande vantaggio per la specie: se il lio dell'uomo abbronzati nascessero già abbronzati perderebbero parte della loro flessibilità. Ciò che si eredita non è la modifica bensì la capacità di modificarsi. Come ha cominciato a insegnarci Darwin le trasformazioni a livello fenotipico avvengono per mutazione genetica casuale e sono poi fissate da rigidi meccanismi selettivi. L'evoluzione biologica segue uno schema darwiano e non lamarckiano. Nell'evoluzione culturale invece operano meccanismi ereditari di tipo lamarckiano. Nella cultura non c'è come nella biologia una barriera a impedire che l'adattamento immediato (fenotipico) alla novità si radichi in profondità modificando la struttura (genotipo) della società. E la rapidità di acquisizione dei fenotipi nei genotipi è tanto maggiore quanti sono gli strumenti tecnologici che la favoriscono. L'evoluzione culturale ha, rispetto a quella biologica, caratteristiche più 'catastrofiche', si svolge in uno squilibrio permanente, non ha il tempo di progredire con gradualità tramite tentativi ed errori. La cultura è sede di continue 'valanghe' i cui effetti si proano rapidamente nel sistema ristrutturandolo e trasformandolo. Rispetto alla dinamica biologica, che sta in quella zona critica tra rigido ordine e disordine totale chiamata margine del caos, la dinamica culturale è molto più tesa e sostenuta. I 'tempi storici' sono più brevi dei 'tempi biologici'. Quindi la nostra mutazione in homo symbioticus avanza ad una velocità inaudita rispetto agli altri cambiamenti antropologici dell'uomo.
Ecologia
Sul piano dell'ecologia, ricercatori come James Lorlock, hanno proposto l'idea di 'Gaia'. 'Gaia' è l'idea di una terra, di un sistema-terra che reagisce come un essere vivente, senza essere un vivente. Ma Lorlock non parla mai della società umana. Parla sempre dell'uomo come di un parassita che vive sulla terra. Se si considerano le scienze umane sembra che l'uomo stia costruendo un nuovo organismo vivente, un macrorganismo etario, e che questo organismo deve imparare a vivere in simbiosi con 'Gaia', la terra. Questo esige l'ecologia. 'Se questa simbiosi riesce, allora avremo una possibilità di vivere un terzo millennio e un quarto, positivi per l'umanità, altrimenti andremo verso catastrofi ecologiche, economiche e sociali'.
Si richiede per il futuro un cambiamento radicale dell'uomo attuale. 'Da ego-cittadini dobbiamo diventare eco-cittadini'.
È molto importante continuare a produrre tutto quello di cui abbiamo bisogno, cercando tuttavia di consumare meno energia e meno materiali, utilizzando tecnologie il più possibile pulite, benefiche nei confronti dell'ambiente: le 'eco-tecnologie'. La loro utilizzazione dovrebbe anche essere incentivata attraverso strumenti di mercato, che dovrebbero a loro volta penalizzare le tecnologie che inquinano di più, che consumano più energia e che danneggiano l'ambiente favorendo di conseguenza quelle più valide. Questo progetto di utilizzazione di risorse eco-tecnologiche orienta la ricerca in modo diverso: se prima era rivolta a produrre in qualsiasi modo e a costi bassi, adesso si preoccupa della qualità del prodotto e della qualità della produzione, pur facendo attenzione ai costi. Per esempio, prima si usava produrre degli oggetti di consumo durevoli introducendo degli elementi di obsolescenza pianificata: un frigorifero doveva durare cinque/sei anni e poi si buttava via, quindi doveva avere degli elementi che consentissero, ad un certo punto, di guastarsi; così come un'automobile: non si premiava la durabilità, ma si badava a produrre molto, sempre di più, non ad evitare la saturazione dei mercati. Oggi bisogna stare attenti a produrre bene, anche prevedendo quello che succederà dopo la fine della vita utile del prodotto. Si comincia a progettare un'automobile tenendo presente il momento in cui si dovrà demolire per poter recuperare tutte le sue componenti e riciclarle: questo è già un modo di realizzare una eco-tecnologia. Si deve produrre, inoltre, anche facendo attenzione che i prodotti consumino il meno energia possibile. Pensiamo all'illuminazione: le lampade a fluorescenza compatta, modernissime, consumano il 20% dell'energia delle lampade normali a incandescenza, eppure hanno un risultato, in termini di illuminazione, eccellente. Questi sono gli sviluppi che si prevedono, come anche l'automobile elettrica che potrebbe domani soppiantare, almeno in gran parte, l'automobile con motore a combustione o a scoppio, poiché essa, per esempio, si adatta molto meglio al traffico cittadino. Il traffico cittadino, con l'auto elettrica, avviene in condizioni di completa eliminazione delle emissioni, quindi dell'inquinamento nell'ambiente delle città.
L'industria informatica fa parte delle eco-tecnologie: ogni volta che si sostituisce un traffico duro (un trasporto di beni e di merci col rischio di tenere una enorme quantità di merce in magazzino) con una informazione, si consente a chi produce di regolare la sua produzione col metodo cosiddetto 'just in time'. In questo modo si produce 'al momento giusto'; cioè quello che serve al momento in cui serve. Gli strumenti di informazione che le comunicazioni offrono, servono, in misura fondamentale, a rendere 'possibile la società di domani più sostenibile'. In questo senso le tecnologie dell'informazione sono tecnologie ecologicamente positive.
Omnipolis
(prospettiva politica)
Tra globalizzazione economica, profezie democratiche, conquiste e rivolte, le tecnologie comunicative globali sono fra le varie tecnologie, quelle che hanno influito maggiormente nel cambiamento delle visuali politiche.
Glocalizzazione
A partire dal XVIII secolo si apre lo spazio pubblico delle grandi città dell'Occidente. Adesso le automobili, i mezzi di comunicazione trasformano gli spazi pubblici in spazi di comunicazione tra un luogo privato e un altro luogo privato. Il luogo privato viene quindi proiettato in una dimensione esterna, pubblica e, con le tecnologie comunicative, globale. Siamo arrivati alla eliminazione dello spazio pubblico materiale e alla sua sostituzione con spazi privati telematici e telefonici. L'urbanesimo era effettivamente una messa in opera della localizzazione delle popolazioni nelle grandi città e nei luoghi di produzione. Questo movimento si risolveva in una urbanizzazione dello spazio reale della geografia. È un elemento fondamentale nella formazione dell'Europa. Ciò che avviene adesso, con le telecomunicazioni, è l'urbanizzazione del tempo reale cioè la costituzione di una città virtuale - una specie di iper-centro - che non sarebbe più una cosmopoli come Roma o Londra, dove c'era la capitale di uno stato, quindi di uno spazio reale, come l'Impero romano e l'Impero britannico, ma l'iper-centro del mondo. In qualsiasi spazio privato ci si trovi materialmente, ci si trova contemporaneamente nello spazio virtuale pubblico. In un certo senso non si deve più parlare di 'cosmopolis', ma di 'omnipolis', la 'città delle città'. Le telecomunicazioni favoriscono una prossimità temporale, 'che forma - lo si voglia o no - il centro assoluto del mondo'. Quindi questa specie di città virtuale delle telecomunicazioni è il vero centro. Ma non è più un centro geometrico e tutte le città reali non sono che la periferia di questo iper-centro delle telecomunicazioni. Una specie di città delle città che non è situata in nessun luogo, ma che sta da per tutto ed è il luogo del potere. Il passaggio è avvenuto dalla poleis greca, in cui il potere era geometricamente e temporalmente delimitato e localizzato dalle mura cittadine, alle prime grandi capitali degli Imperi, nelle quali il potere veniva forzatamente centralizzato lasciando le periferie lontane sia geometricamente che temporalmente. L'urbanizzazione ha favorito l'accentramento del potere, mentre le nuove tecnologie hanno nuovamente restituito potere al locale. La contrapposizione tra cosmopolis e omnipolis è parallela a quella tra globale e locale. Le tecnologie comunicative globali hanno inizialmente teso a globalizzare il mondo occidentale, ma allo stesso tempo la loro iper-diffusione ha permesso di 'ridare voce al locale', in maniera paritaria. Insomma il locale ha finalmente e per la prima volta nella storia, con le tecnologie comunicative globali di tipo digitale, potuto affermare la propria esistenza attraverso un media. La cultura locale, attraverso le possibilità legate ai nuovi media, aggiunge alla variabile dello spazio, come aspetto di coesione e di costruzione di identità, un'altra variabile, che è quella dell'accessibilità, che non necessariamente è definibile, grazie ai nuovi media, solamente in termini di vicinanza spaziale, ma anche e soprattutto in termini di condivisione di interessi. Questo è avvenuto sebbene non attraverso un media push, che dall'alto verso il basso immette informazione, ma attraverso la rete di Internet, il media pull per eccellenza, nel quale chiunque voglia può scegliere le proprie informazioni poste tutte (apparentemente) su un piano orizzontale e perciò identiche nel loro valore intrinseco.
Il pull permette un'aggregazione di forze sul medesimo interesse, mentre il push tendeva a standardizzare. La globalizzazione culturale, che l'affermarsi dei nuovi media comporta, non andrà a detrimento delle identità culturali, sociali e politiche nazionali e locali, ma 'determinerà il nascere di nuove identità che alle prime si affiancheranno, senza annullarle'. Il fenomeno della 'globalizzazione' implica, nel campo delle comunicazioni, che ci sia una rete sempre più fitta, sempre più articolata di rapporti tra individui e gruppi, favoriti, ormai da oltre un secolo e mezzo, dagli strumenti tecnici. Si è iniziato col telegrafo, si è proseguiti con il telefono, poi con la radio bilocale; poi, nel 1922, con la radio circolare, quella che sentiamo oggi. Nel '29 sono iniziati i primi esperimenti con la televisione, poi con il magnetofono nel '38 e poi, nel 1984, siamo giunti ad Internet ad uso civile ed oggi assistiamo alla diffusione della televisione digitale, satellitare e a tutti i sistemi multimediali: CD ROM e così via. Quindi, la 'globalizzazione', da questo punto di vista, oltre che dal punto di vista economico -perché il termine nasce nell'ambito dell'economia di un mercato mondiale - implica che vi sia tutto questo sistema di relazioni. Ciò, per certi aspetti, è un vantaggio, perché permette un flusso di informazioni in tempo (quasi) reale; tuttavia di fronte alla retorica che si fa della 'globalizzazione' nel campo delle comunicazioni, corrisponde una concentrazione di carattere economico, che si sviluppa, in prospettiva, in tutto il mondo tra catene cinematografiche e televisive e discografiche; tra giornali, riviste e università, per creare quelle che vengono chiamate le 'mega corporations', le quali agiranno non soltanto nel campo dell'informazione, ma anche in quello dell'educazione e della formazione, fino ad arrivare a un sistema di educazione permanente e a plasmare il senso comune. Il timore è che questi processi vengano controllati dall'alto in maniera oligarchica e che tale controllo possa portare, non ad un pensiero unico nel senso che tutto il mondo possa essere indotto a pensare e a sentire allo stesso modo, ma certamente ad una riduzione degli spazi di libertà. Nel rapporto fra i processi centrifughi e centripeti, globalizzazione e invece localizzazione, è sorto un neologismo: 'glocalizzazione'. Si tratta di non contrapporre il locale a globale: di non pensare, da un lato, che il mondo sia unificato e che, di conseguenza, noi tutti siamo inseriti in un circolo virtuoso attraverso il quale tutta questa ricchezza di informazioni si dirige verso il meglio. I cosiddetti 'localismi' o, per certi aspetti, quelli che noi chiamiamo 'integralismi' possono essere considerati un contraccolpo dei processi di 'globalizzazione'. Si pensi soprattutto, ad esempio, ai paesi arabi, che una volta seguivano la modernizzazione occidentale, come la Siria o l'Algeria. La loro chiusura in se stessi deriva, in fondo, da una percezione di amore quasi tradito, poiché non si sentono inseriti a pieno titolo e con pari dignità nei progetti che contano. In quest'ambito della 'globalizzazione' bisogna vedere, dunque, anche gli aspetti di frammentazione locale. Poi c'è la 'localizzazione' come fenomeno economico. Un esempio è la IBM americana, che licenzia quasi metà del suo personale, perché si fa fare il 'software', cioè i programmi informatici, dagli Indiani perché costano otto volte meno e si fa fare lo 'hardware', cioè le macchine, a Formosa, oppure a Singapore, perché costano sempre molto meno. Inoltre c'è un problema di carattere più generale in questa questione della 'localizzazione': gli investimenti ormai vanno non solo dove c'è forza-lavoro a basso prezzo, ma anche dove c'è sicurezza politica; quindi spesso in stati con governi dittatoriali, come gli investimenti della Fiat in Serbia o Turchia. Quello della glocalizzazione è quindi un movimento bidirezionale, o meglio un incontro del locale con il globale, che seppure con molti aspetti positivi, è la fonte di una evoluzione dal locale al globale e viceversa abbastanza movimentata. Perché si stabilizzi ci vorranno 'molto tempo e molti morti'.
Modernizzare la democrazia?
Una delle profezie meno fondate, fino ad ora, è stata quella nota come 'democrazia tecnologica'. Richard Buckminster Fuller teorizzò per primo negli anni '40 una democrazia diretta tramite il telefono, poi divenuta con i suoi seguaci la democrazia elettronica (electronic democracy) tramite il computer: anche detta tecnocrazia. Si è dato infatti per scontato che il progresso tecnologico e Internet, portassero ad una diffusione dell'uguaglianza e quindi alla possibilità di intervento di tutti su tutto. In realtà questa possibilità, in qualche modo, esiste; ma è vero che esiste anche la tendenza opposta: al controllo di tutto e anche alla sorveglianza. Con l'esplosione delle nuove tecnologie la democrazia si fa sempre più 'virtuale', 'la politica si dematerializza: saltano i mediatori tradizionali'. La fondamentale importanza di mediazione dell'uomo politico può essere annullata in vista di false democrazie. Questo processo comporta notevoli rischi come quello dell'esaltazione delle emozioni in funzione 'plebiscitario-referendaria'. È pur vero che la tecnologia porta anche, tra i vantaggi, la possibilità di accedere direttamente a una serie di informazioni e di elaborarle, sempre che si possa avere una pluralità di fonti. Ma quando si parla dell'apporto che la nuova tecnologia dell'informazione consente alla politica, spesso si pensa solo alla possibilità di dire la propria in modo vincolante, dimenticando invece tutti gli aspetti di equilibrio di sistema, senza i quali la democrazia è pura finzione.
Modernizzare la democrazia deve significare dare un 'nuovo ruolo ai governi nella società informatica".La struttura dei governi contemporanei dovrebbe adeguarsi ai nuovi modelli comunicativi proposti dalle nuove tecnologie : nell'epoca dell'informatica i governi dovrebbero avere una struttura di rete, essere capaci di fornire servizi e informazioni in un universo di comunicazione orizzontale.
Le reti civiche per esempio sono un grande esempio di modernizzazione della democrazia, perché mirano a mettere al centro il 'cittadino come individuo'. Le reti civiche dovrebbero servire a quello che più in generale dovrebbe essere la 'rete unitaria', cioè un collegamento complessivo tra le reti civiche.
Il progetto della 'rete unitaria' nasce dall'idea che il patrimonio informativo a disposizione dell'amministrazione debba essere messo a disposizione delle altre amministrazioni e possibilmente anche del paese. Per fare questo occorre modificare tutte le procedure ed i programmi di elaborazione; ma per modificare le procedure ed i programmi bisogna modificare l'organizzazione ed i procedimenti. In questa direzione la rete unitaria non è soltanto un'occasione per far dialogare una struttura informatica, bensì per riorganizzare la pubblica amministrazione in modo tale da renderla cooperativa, federata. Federata significa, in senso tecnico, che tutti quanti possono condividere le informazioni; un'amministrazione federata non è necessariamente centrale, ma è decentrata, nel senso che non necessariamente si interessa alle sue specifiche competenze, ma può dialogare con tutti. L'idea di fondo consiste nel dare la possibilità al cittadino di andare da un'amministrazione ed avere informazioni su cosa sta succedendo in altre amministrazioni; al fine di rendere più flessibili i servizi. Invece di andare al Comune per i problemi del Comune, alla Prefettura per i problemi che sono a capo della Prefettura, alla Motorizzazione civile per quei problemi che fanno capo alla Motorizzazione civile, con una rete si può andare in una centrale di accesso, in seguito in un ufficio di accesso e poi, da questo, andare a chiedere l'informazione, e a dialogare con tutta la amministrazione del luogo stando seduti al tavolino; ovviamente l'ideale sarebbe coprire tutto il territorio nazionale e non solo le città più grandi, facendo così diventare più periferici i piccoli paesi. Si tratta di una rete molto complessa che tecnologicamente ormai è stata identificata: si tratta ora soltanto di realizzarla.
La prima, e la più funzionale rete civica d'Italia è stata quella di Bologna con le Arcades, poi seguita da Modena con Mo Net, da Torino e tante altre. La informatizzazione delle amministrazioni, quando è stata accomnata da una 'reingegnerizzazione dei processi' ha permesso un notevole smaltimento del peso burocratico aumentando notevolmente il contatto tra cittadino e comune. Attualmente in Italia i buoni lavori di informatizzazione sono stati fatti solo dai comuni delle grandi città, e ciò non ha fatto altro che aumentare la distanza con i piccoli paesi o le città di periferia. La rete civica anzi sarebbe dovuta servire principalmente a questi ultimi soggetti, per fornire loro nuove prospettive occupazionali e culturali.
Le reti civiche possono essere così importanti che McKenna arriva a proporre l'idea amministrativa di 'Smart Community". 'In un sistema di governo di tipo industriale, la maggior parte delle regolamentazioni e delle politiche vengono definite a livello nazionale o centrale, e questo non garantisce un buon funzionamento; la società si muove troppo velocemente. Nei paesi che hanno i sistemi di governo più riusciti, la gran parte dei servizi statali vengono forniti a livello di comunità o a livello locale. Il lavoro più gravoso dei sistemi governativi viene assolto dalle comunità. In questo modo, una comunità 'Smart' è il luogo dove la tecnologia arriva ad aiutare i cittadini nell'ambito dell'educazione, delle cure sanitarie, della sicurezza pubblica, in modo che il grosso del lavoro venga svolto dalla comunità, nel quadro di una politica o di un supporto nazionale: lasciare i dettagli dei servizi o dei programmi ai governi locali, mentre si lascia semplicemente un'impostazione di politica nazionale a livello federale o nazionale'.
Comunità virtuali
La comunicazione in rete ha reso possibile che si venissero a creare una serie di comunità virtuali intorno ad 'interessi comuni'. Per definire le comunità virtuali si può usare una metafora che viene dalla letteratura in particolare da Bruce Sterling, uno dei massimi letterati 'cyberpunk', per il quale le comunità virtuali sono isole nella rete, luoghi tridimensionali che si aprono all'interno della rete telematica e, dove, effettivamente come in una piazza, come in un'Agora dell'antica Grecia, la gente si incontra, si trova e stabilisce delle relazioni. Ci sono aspetti positivi delle comunità: per esempio possono essere fruite da punti molto lontani anche spazialmente. Esistono comunità dedicate a particolari aspetti della cultura, come il grosso sito americano alla Brown University che si occupa del Decameron con studiosi che provengono da qualunque parte del mondo. Le comunità di ricerca sono un aspetto di questi luoghi nella rete; altri aspetti sono le comunità di azione politica. Questa realtà ha anche un suo lato negativo, poiché la rete viene utilizzata dalle organizzazioni criminali.
La caratteristica principale delle comunità virtuali è quella di essere dei potenziometri. Se la comunità che si viene a creare in rete ha scopi culturali, pacifisti, ecologisti, i risultati possono essere grandi, perché permettono a gruppi di persone di scambiare idee e di organizzarsi per il raggiungimento di obiettivi positivi: come quello di una ricerca o di una manifestazione pacifista. Ma la possibilità organizzativa viene fornita anche a gruppi socialmente pericolosi: come a neonazisti, mafiosi, pedofili, trafficanti di armi, ecc. Le cyberpolizie stanno nascendo nelle nazioni democratiche per combattere i traffici illeciti all'interno delle reti. La rete quindi permette ad uomini, con interessi simili, di incontrarsi molto più facilmente. La rete è quindi un potenziometro, o un catalizzatore d'interesse mentre gli interessi, positivi o negativi per la società, sono solamente umani. Dal punto di vista sociale, la comunità virtuale può facilmente ingenerare alienazione nelle persone fragili perché concede loro di avere contatti solamente virtuali. Le persone particolarmente deboli sono anche attratte da quelle comunità che svendono verità divine e che trovano adepti da porre al loro servizio. Eccessive sono diventate le 'cyber sette' che nella rete trovano campi incolti, ma sono diventati anche molto più pericolosi gli integralismi: integralismo cristiano, integralismo musulmano, integralismo ebreo. È un grande problema. La guerra santa è all'ordine del giorno in molti paesi del mondo, Algeri, Serbia e perfino a Parigi con la 'Jihad'. L'integralismo mistico del monoteismo, che è un fatto pericolosissimo per la pace civile, si accomna a un integralismo tecnologico, cioè a un culto della tecnica, a un tecno-culto per un 'deus ex machina'. Non è più il dio della trascendenza del monoteismo, e quindi dell'integralismo religioso, è l'integralismo di un dio/macchina, capace di risolvere tutti i problemi. Questo anche per chi presenta le nuove tecnologie in una dimensione di fede quasi religiosa. 'Di fronte alla tecnica ci sono i taumaturghi e i drammaturghi'. Taumaturghi sono quelli che gridano al miracolo perché Bill Gates ha lanciato 'Windows 95' o perché 'Apple' ha prodotto un nuovo modello. I drammaturghi sono quelli che nell'evoluzione tecnologica vedono il male assoluto. Quello che manca è la giusta distanza critica che bisognerebbe avere di fronte a qualsiasi oggetto tecnico. Altrimenti si arriva al tecno-culto, al 'cyber-cult'.
Il primo e più grande teorizzatore delle comunità virtuali è stato Howard Rheingold. Egli ha il grandissimo merito di essere stato il primo ad aver riflettuto sulla natura delle comunità virtuali, riflessioni che si sono concretizzate in un suo famoso libro intitolato Comunità Virtuali che risale agli inizi degli anni Novanta. Inoltre Rheingold è il primo teorico che ha studiato una particolare comunità virtuale, 'Well', una delle prime nate in America, e che dal 1985, anno in cui è stata fondata, si è sviluppata enormemente e conta oggi oltre ottantamila aderenti. È stato anche il primo che ha formulato l'idea che le comunità virtuali potessero rivoluzionare radicalmente le nostre relazioni e l'ordinamento sociale tradizionale, e con questo è stato uno dei tanti mistificatori della rete. L'impegno politico nella rete potrebbe aumentare molto nel prossimo futuro, tutto dipenderà dal grado di info-alfabetizzazione o dalla semplificazione nell'utilizzo delle macchine. In ogni caso sarà opportuno mantenere dei filtri politici tra scelte di governo e emozioni popolari, altrimenti il rischio populistico e plebiscitario diventerà altissimo.
La comunicazione globale ha creato grandi lobby internazionali di illegalità. La possibilità della comunicazione crittata ha permesso a movimenti di delinquenza organizzata, una struttura comunicativa difficilmente intercettabile. L'entrata della mafia nella comunicazione globale, anche con l'acquisto di grandi nodi, ha movimentato il settore finanziario ed informatico internazionale. Le cyberpolizie sono riuscite ad intercettare solo minima parte dei movimenti illeciti della mafia, in tutti i suoi settori: traffico d'armi, di droga, della prostituzione, della vendita di organi e della pedofilia. Il dato che diventa drammatico all'interno della rete è che gli stessi traffici, in misura quantitativamente minore, possono essere organizzati da insospettabili cittadini che non hanno 'reali' legami con la delinquenza, ma solo legami 'virtuali'. Ugualmente facile diventa per i gruppi estremisti trovare spazi liberi per l'organizzazione. L'ultimo agguato delle BR al Prof. D'Antona è una dimostrazione lampante di come i servizi telematici possano servire a mantenere i contatti anche con carcerati e a organizzare o riorganizzare una struttura estremistica. La stessa facilità hanno gruppi terroristici di destra, soprattutto i gruppi xenofobi o razzisti come dimostrano i numerosi siti contro le razze non ariane. Questi gruppi sono stati combattuti ed emarginati dalla società civile, quando ancora i loro incontri erano pubblici, ed in un certo senso 'reali', 'tangibili'. Ma quando hanno iniziato la frequentazione della rete affrontarli è diventato impossibile. Nelle loro comunità virtuali, sono ammessi solo gli iscritti e non c'è nessuna contestazione che gli si possa fare in maniera da scuotere l'opinione pubblica. I flames, gli scontri della rete, restano silenziosi o addirittura inesistenti per il grande pubblico. In rete l'unico modo di combattere i razzismi è attraverso la rete. Ma forse non è abbastanza.
Le nuove colonizzazioni
È stato il vicepresidente statunitense Al Gore il primo a parlare di 'information superhighway'. Si parla molto di 'autostrade elettroniche', anche se il termine giusto dovrebbe essere quello di 'supermercati elettronici': nella rete infatti si fanno tele-acquisti di informazione, tele-acquisti di convivialità, tele-acquisti di immagini. Si tratta dunque complessivamente di tele-acquisti. È però interessante che si parli di 'autostrade', perché le autostrade hanno una storia che italiani e tedeschi conoscono bene.
Le 'autostrade' e le 'Reichautobahne ' sono le vie strategiche fatte specialmente dal nazismo nella prospettiva della conquista: sono strade per la conquista. Nella Seconda Guerra Mondiale la conquista è cominciata in direzione dell'Est, là dove arrivava l'autostrada, la 'Reichautobahn', verso la Polonia, verso Danzica, nel famoso 'corridoio' di Danzica. Dunque, 'per continuare l'autostrada che andava verso la Polonia, si dichiarò la guerra' . Non si può dimenticare che la 'autostrada fascista' e la 'Reichautobahn nazista' sono state le immagini della 'conquista', della grande conquista territoriale del 'Lebensraum', una specie di colonizzazione nel cuore dell'Europa. L'immagine mi sembra interessante sotto questo aspetto. Le autostrade dell'informazione sono, in un certo senso, delle 'Reichautobahn', cioè vie di colonizzazione culturale. La cultura colonizzatrice è quella dei bianchi anglofoni. La diffusione dell'inglese, da quando la rete è entrata a far parte in maniera incisiva nelle comunicazioni globali, ha assunto uno sviluppo esponenziale soprattutto a discapito del mondo ispanico. Il 'gap' fra Nord e Sud va sempre più accentuandosi e la differenza oltre che geografica è soprattutto informazionale. Gli info-ricchi aumentano giornalmente la distanza dagli info-poveri.
La colonizzazione informatica è naturalmente una colonizzazione culturale. E se si fa un'analogia tra il 'dentro e il fuori', si deve dire che mentre le colonizzazioni 'fuori' fondate sulla forza e sulla potenza sono sempre fallite, le colonizzazioni culturali, 'dentro', hanno sempre lasciato delle tracce. L'India, paese libero e democratico da oltre cinquant'anni, è tuttora un paese con profondissime tracce di cultura inglese; le Filippine, dopo un secolo di sganciamento dagli Stati Uniti, portano ancora tracce così forti del passaggio americano che esiste tuttora un movimento che vuole trasformare le Filippine nel 51° Stato americano. Questo ci ricorda che ciò che entra nella nostra vita interiore è molto più forte di ciò che occupa il territorio attraverso il potere. E il cyber-spazio è un'avventura interiore. Quanto alla ribellione, esistono due risposte. La prima è nella forma di partecipazione e di presenza, che deliberatamente impone delle alternative culturali e nazionali all'interno dell'internazionalità di cyber-spazio. La seconda è la finta ribellione di coloro che già adesso vivono se stessi come ribelli in quanto protagonisti della rete, protagonisti del cyber-spazio, che invece ribelli non sono affatto, perché sono invece già dei sudditi. 'La rete diventa persuasione interiore anche quando è vissuta con ribellione'.
Mondo Hackers
Il rivoluzionari 'dentro', sono gli 'hackers', che comunemente vengono definiti 'pirati della rete' o 'pirati informatici' anche se in realtà questo termine è utilizzato in maniera generale per identificare tutti coloro che si avvalgono delle proprie conoscenze informatiche e di tecnologia delle telecomunicazioni per scoprire ed infrangere le regole attraverso cui queste tecnologie sono gestite.
Se i danni che un hacker può provocare ad un ente privato od allo stato sono potenzialmente enormi, ciò non significa che la pratica dell'hacking sia necessariamente usata per scopi illeciti o immorali. In effetti l'hacking, che oggi è poco più di una moda, ha rappresentato ancora prima dell'avvento della rete, un modo di appropriarsi in maniera artigianale delle tecnologie telematiche per sondarne le applicazioni ancora inesplorate e sconosciute.
I primi hackers smontavano i propri computer, i telefoni e si procuravano mappe dei tracciati telefonici per capire come e in che modo si potevano sfruttare le risorse della rete senza are una bolletta troppo salata. In gergo gli hackers vengono chiamati cowboy, prendendo ispirazione rete che raccontano i trucchi degli hackers statunitensi e che vengono messi dal cowboy Case.
Ora sono molti i manuali in a disposizione di tutti secondo l'idea, tipica degli hackers, di condividere le conoscenze utili a 'sconvolgere l'ordine prestabilito della rete'.
Un altro aspetto importante dell'hacking è la rivendicazione della libertà di sfruttare tutti gli spazi, quelli pubblici e quelli privati a cui si può avere accesso attraverso la rete. In effetti, molti dei crimini per cui gli hackers vengono incriminati e processati non trovano ancora una appropriata definizione giuridica.
Il sito 2600, la storica rivista on-line degli hackers di oltreoceano, mostra anche la faccia illegale e meno pulita dell'hacking. Qui si trovano a disposizione, per chi li vuole scaricare, ogni tipo di strumenti per intercettare i codici delle sectiune di credito di chi fa un acquisto in rete o per simulare la registrazione di software che non è stato comprato. L'hacking, da un lato mette in luce l'arbitrarietà di alcune regole sociali e politiche che governano la rete e dall'altro, tuttavia, genera fenomeni di micro e macrocriminalità che mostrano proprio l'esigenza di queste regole.
Alcuni hackers hanno avuto fama mondiale come Kevin Mitnick, divenuto famoso grazie al libro cyberpunk Outlaws and hackers on the computer frontier, di Katie Hafner e John Markoff, che ne raccontava le gesta e arrestato dall'FBI, grazie all'aiuto di un cacciatore di taglie telematico, come Tsutomu Shimomura, che ha narrato dell''inseguimento' cibernetico nel proprio libro: Takedown. Mentre Robert T. Morris è stato il simbolo delle potenzialità distruttive degli hackers: è il padre dei crackers. Negli anni '80 Morris, lio di un dirigente della NSCAA (National Security Computer American Agency), l'agenzia di informatica che ha progettato uno dei primi browser, Mosaic, comincia ad interessarsi di informatica ed a muovere i primi passi da hacker. Nel 1988 , Morris, mette alla prova un programma autorigenerantesi, un 'worm'(237) come si dice in gergo, di cui stava cercando di scoprire le potenzialità. Nel giro di qualche giorno il 'worm' si diffonde in tutta la rete e mette seriamente in difficoltà in tutto il mondo la possibilità di trasferire dati. Il 'crackdown delle comunicazioni telematiche mondiali sembra vicino e la rete svela la sua fragilità.
A mitizzare la ura di Morris è stato Johnathan Litman con il primo libro sugli hackers: Watchman. Litman afferma che la ura dell'hacker sembra da un lato incarnare il prototipo di colui che infrange le regole per appropriarsi individualmente di ciò che è pubblico. L'etica contemporanea ha creato un nome preciso per queste ure e li ha chiamati free riders. D'altro lato, gli hacker sembrano nascere come risposta a un rischio concreto: la tecnologia può, a volte, diventare un sapere in mano a pochi, che dettano arbitrariamente le loro regole.
Ma esistono anche ure come quelle di Richard Stallman, hacker e guru cyberpunk, che ha sfidato apertamente, in maniera quasi donchisciottesca, molte delle limitazioni che la legge impone all'uso della rete ed alla diffusione del software. Formato nel laboratorio di studi sull'intelligenza artificiale del MIT, uno dei più avanzati del mondo, i cui membri, negli anni '80, erano quasi tutti degli hackers, Stallman diventa rapidamente noto negli anni '70 per aver progettato un editor di testi, EMACS, che ha una caratteristica sorprendente: è infinitamente personalizzabile da parte dell'utente. Stallman lo distribuisce gratis, a patto che chi ne faccia uso prometta di rendere pubbliche tutte le sue modifiche. Egli comincia, già in quegli anni a maturare un'idea che resterà centrale in tutti i suoi progetti, fino ad oggi: rendere di pubblico dominio ogni tipo di software. La sua convinzione è che 'la distanza tra chi usa il software e chi lo progetta va ridotta, rendendo possibile a tutti di smontare, capire dall'interno, reinventare il software che si usa'. Per questo motivo il software progettato da Stallman viene diffuso gratuitamente ovunque, tramite la Free Software Foundation, da lui creata. Il suo più grande progetto è però GNU, che vuole, emulandoli, soppiantare i più grandi sistemi operativi come Windows e Unix. Un progetto decisamente utopico, ma che svela come nel mondo dell'informatica l'estro e la genialità di pochi individui possono arrivare a sfidare le grandi agenzie mondiali di software.
John Draper non ha fatto in tempo, a vivere gli anni '90 da hacker, o almeno così sostiene, perché si era già bruciato la fedina penale negli anni '80. Egli appartiene infatti alla generazione più veneranda degli hackers, quella degli anni '70. Draper, noto come Captain Crunch, è stato, infatti, in prigione per un paio d'anni dall'85 all'87, per la sua attività di freaker. La prima invenzione da hacker/freaker di Draper è legata ad una marca di patatine americane, le Captain Crunch, da cui deriva appunto il suo pseudonimo. Nelle confezioni di questa marca di patate fritte, Draper trova in regalo un fischietto e scopre che la frequenza del suo fischio equivale esattamente a quella del suono che serve alle linee telefoniche americane per dare il segnale che la telefonata è stata ata. Inizia quindi a sfruttare la sua scoperta per ottenere dei collegamenti gratuiti. Negli anni '70 Draper lavora alla Apple, in collaborazione con Steve Wozniak uno dei suoi fondatori, ma spende il suo tempo ad inventare trucchi per costruire il computer perfetto per l'hacking. Ora vive in semiclandestinità, ed è ancora ricercato dall'FBI.
Censura
L'opinione che commissioni censuratorie possano rinascere è ormai frequente, ma togliere la libertà alla rete vorrebbe dire eliminarne la sua stessa principale peculiarità. Anche se l'idea che si possa avere un canale di comunicazione quale la rete nella quale non si possa né si debba esercitare nessun controllo, costituisce in verità un'idea stravagante e non perché non rappresenti un'idea interessante ma perché non corrisponde ai dati reali del problema che noi viviamo. Infatti non è vero che non esista controllo sulla rete, ci sono tanti momenti di controllo sulla rete e questo è alquanto evidente nel caso dei grandi vantaggi che si ottengono oggi tra i diversi gruppi finanziari. Il controllo non è solamente una questione di mercato, ma è soprattutto una questione di carattere economico e socioculturale. Limitare la delinquenza in rete con controlli mirati è molto importante, ma altrettanto importante è togliere dalle mani dei grossi gruppi finanziari la possibilità di controllo e di censura sui cibernauti.
Valorizzazione delle vanità
(prospettiva economica)
Karl Marx aveva previsto la caduta progressiva del 'saggio di profitto'.'Potrebbe verificarsi adesso che è l'immaterialità, e non più come poco tempo fa' la materialità, a dominare? Niente affatto'. Oggi con le tecnologie dell'immateriale e del virtuale, in senso largo, assistiamo a una tendenza inversa alla predizione di Marx, cioè a un aumento degli utili, mentre per il filosofo tedesco il destino del capitalismo era la caduta tendenziale del saggio del profitto. Oggi con le reti, con i software , con l'industria del virtuale in senso largo, con la smaterializzazione del valore aggiunto, accade esattamente il contrario: più un software è venduto, più un'immagine è distribuita, più collegamenti ha una rete, più prende valore, con un conseguente aumento degli utili che va in un senso completamente opposto alle predizioni, non soltanto di Marx, ma dei classici dell'economia. Dunque è una rivoluzione fondamentale dei quadri di pensiero economico a cui ci aveva abituati il XIX secolo.
Globalizzazione
Il termine globalizzazione è stato fonte di violente discussioni tra economisti ed esperti delle politiche del lavoro. C'è chi è a favore dei mercati globali e chi contro. Globalizzazione significa non essere più chiusi nel locale, ma proiettati nel globale. Globalizzazione dei mercati significa non essere più delimitati e protetti nel commercio dai confini geografici nazionali, ma significa concorrere nella produzione con tutti i paesi del mondo. Gli effetti della globalizzazione si sono sentiti negli ultimi vent'anni con l'aumento notevole della disoccupazione nei paesi occidentali e principalmente in quelli che avevano ferree leggi per la protezione del lavoratore. Questo è avvenuto perché le centrali di produzione, con l'aumento della coscienza civile, si sono spostate verso il Sud del mondo dove i costi produttivi erano e sono nettamente inferiori. Ma la globalizzazione, al livello high-tech, ha permesso, grazie alla grande concorrenza, una crescita qualitativa notevole. È pero anche uno degli elementi che ha aumentato il gap tra Nord e Sud del mondo, anche se inizialmente si pensava lo potesse appianare. L'economia cambia profondamente, perché alla economia materiale a cui siamo abituati, si affianca un livello di economia virtuale. Si ha per esempio la possibilità di fare transazioni finanziarie senza recarsi in banca o dagli intermediari finanziari, oppure si possono fare acquisti dall'altra parte del mondo; con l'uso della rete cade il vincolo della geografia. Cambiano, sostanzialmente, le regole del marketing mix. In un'economia digitale, nella dimensione virtuale basata su Internet, 'il prodotto è sostituito dall'immagine del prodotto'.
Telelavoro
Con l'avvento dell'era digitale e della comunicazione globale si è pensato che finalmente il lavoro potesse essere trasferito nel domicilio del lavoratore, aumentando a quest'ultimo la qualità della vita. Questo sogno è anch'esso uno 'strabismo telematico'. Innanzitutto cos'è il telelavoro? Esistono due interpretazioni di telelavoro. La prima vuole che i dipendenti di periferia invece di fare molti chilometri per raggiungere la sede, operino in uffici periferici aumentando così anche il contatto con il pubblico. La seconda vuole che i dipendenti operino nelle loro stesse case. Benché si stia già sperimentando questo tipo di lavoro, sappiamo che può essere utili e funzionale, come è sempre stato, per liberi professionisti, mentre può diventare molto pericoloso per i lavoratori dipendenti, i quali da in lato infatti non riuscirebbero a trovare il momento di distacco tra i lavoro e la vita privata (a differenza di un libero professionista che può scegliere come gestire meglio il proprio lavoro e non deve render conto a nessuno del suo operato), dall'altro potrebbero recare grossi danni all'azienda portando fuori notizie che dovrebbero restare protette. Si è parlato di telelavoro, naturalmente, solo per i lavori concettuali, ma la differenza con il lavoro a domicilio da sempre conosciuto, è solo quella di un terminale che collega la casa all'ufficio. Il telelavoro, inteso nella seconda forma, non migliorerebbe molto la qualità della vita e se si tenessero a mente gli aspetti negativi, come solitudine e ipercontrollo, allora si potrebbe giustamente affermare che il telelavoro potrebbe solo peggiorare la qualità della vita. Mentre hanno ottenuto soddisfacenti risultati i dipendenti pubblici che operavano agli sportelli virtuali; cioè lavorando in una struttura idonea di un ente, solitamente pubblico, svolgevano le normali operazioni di sportello, ma ad utenti che li contattavano via Internet.
Il telelavoro è stata una infausta promessa dei guru dell'informatica degli ultimi anni; il pericolo sta ora nel fatto che lo stesso Stato sta provando queste tecniche. E anche lo Stato, ricade in un errore decennale, credere alla tecnologia, in ritardo e nella forma sbagliata. Anche le promesse sull'aumento del lavoro grazie alle tecnologie sono state numerose negli ultimi anni, ma poco fortunate.
Nel saggio La fine del lavoro, Rifkin, parlando delle tecnologie 'labour saving', dell''engineering' e descrivendo la 'Terza Rivoluzione Industriale', pone il futuro come uno scontro fra due forze inconciliabili: un'élite cosmopolita di analisti di simboli, 'knowledge workers', che controlla la tecnologia e la fase di produzione ed un crescente numero di lavoratori, permanentemente in eccesso. Forse basandosi sulla stessa previsione Furio Colombo inizia il suo Confucio nel computer, con un sagace racconto in cui degli 'esperti' in un 'momento accidentale del futuro' promettono ad un disoccupato e ad un giovane come le tecnologie in futuro avrebbero risolto il loro problema. Questa è una promessa ormai abusata, eppure le politiche del lavoro puntano sul futuro delle tecnologie, senza probabilmente comprendere che queste non faranno altro che eliminare posti di lavoro. È vero, e si inizia a vedere, che le tecnologie daranno lavoro, e anche ben retribuito, a coloro i quali le tecnologie le sanno usare: i (IT) knowledge workers. È vero che l'industria informatica punta a macchine 'user friendly', di facile utilizzo, ma solo nel settore domestico; nell'industria produttiva bisogna, per ottenere risultati concorrenziali, saper utilizzare macchine molto complesse. Le tecnologie, seguendo il trend attuale, sembra che non incentivino il lavoro in generale, ma solo quello professionalizzato. Anzi con la globalizzazione si specializzano particolari nazioni in determinate attività produttive: gli indiani sono considerati ottimi programmatori, gli europei ottimi ricercatori, i giapponesi ottimi organizzatori, gli statunitensi come sempre ottimi affaristi, ecc. Il telelavoro, ma soprattutto la telecollaborazione, sono invece molto usate nel settore high-tech, anche perché spesso gli IT knowledge workers o sono liberi professionisti oppure hanno posti di notevole importanza. È aumentato notevolmente per certi lavori, esempio ne è il laboratorio virtuale, nel quale, tecnici di varie parti del mondo, si incontrano e, dialogando esclusivamente in inglese, portano avanti i loro progetti informatici, ingegneristici, architettonici, ecc.
Commercio in rete
Per chi utilizza la rete a bassi costi, globalizzazione economica vuol dire comprare un prodotto o vendere il proprio dall'altra parte del mondo. Saltando naturalmente tutti i costi aggiuntivi di distribuzione. In realtà, capovolgendo tutte le previsioni negative della rete, una delle prime società a fare commercio elettronico è stata una libreria. Molti avevano infatti, con l'avvento del digitale, già dato per spacciato il libro. Invece, con la diffusione del web, una piccolo libreria di Seattle mette il suo catalogo in rete, ed inizia ad accettare le ordinazioni via e-mail, diventando in poco tempo nota con il suo indirizzo Internet, www.amazon.com, la più grande libreria del mondo e forse l'unica libreria ad essere quotata in borsa a Wall Street. Le altre società che finora hanno avuto buone possibilità in Internet, sono le imprese di servizio, come la Yahoo che ha organizzato un motore di ricerca. Yahoo permette di trovare i siti o tramite un'organizzazione gerarchica di siti visitati e valutati dalla Yahoo stessa oppure grazie all'uso di word-key, grazie ad un sistema logico di ricerca detto sistema booleano.
Per il commercio elettronico è dovuta nascere una nuova scienza economica, la Webonomics, cioè l'economia del web, che ancora si basa su poche regole fondamentali:
i consumatori ano raramente un canone per accedere ad un sito web;
i vecchi modelli di vendita della pubblicità non si applicano più;
chi fa marketing è sul Web non per farsi vedere, ma per dei risultati;
i clienti devono essere ricompensati quando concedono informazioni private su loro stessi;
non è la quantità di persone che visitano il sito la cosa importante, ma la qualità dell'esperienza che vi fanno.
I professori del marketing a. I. oggi hanno dovuto riprendere gli studi dell'Advertising p. I. ; conoscere testi nuovi e non sempre affascinanti (Tutto ciò che avreste voluto sapere su HTML e Java e non avete mai osato chiedere oppure La mia vita con ShockWave) e termini nuovi (brochureware.
Nella rete le regole sono diverse. Il gratis ha infatti assunto un'importanza notevole diventando un paradosso: 'si deve regalare la merce principale per far soldi con i servizi ad essa correlati'.
Gratis si forniscono servizi o doni in cambio di informazioni. L'informazione è infatti 'l'oro dell'era digitale'. Le informazioni che potrebbero sembrare banali, come quelle suoi propri hobbies, sugli studi fatti, ecc., diventano però fondamentali per chi voglia proporre della pubblicità mirata. La pubblicità ha cambiato unità di misura, non si parla più di share televisivo, basato solamente sulla quantità. Le nuove unità di misura vogliono mirare giusto: il marketing si fa più specifico, delimita il target d'azione. Esistono le semplici Hits; tanto semplici che Katherine Paine, direttrice del Delahaye Group, alla quarta edizione del Networked Economy Conference nell'aprile 1997, ha acronimato Hits in How Idiots Track Success, Come gli Idioti Rilevano il Successo. Anche la view è poco specifica. Mentre la più seria psicografia e il click-through servono per studiare approfonditamente la clientela. In rete esiste la pubblicità sotto forma di sectiunellone pubblicitario elettronico, detto banner. Un banner però, a differenza di ogni altra pubblicità, è un collegamento ipertestuale che permette di andare a visitare immediatamente il sito dell'azienda che pubblicizza il prodotto/servizio e magari di acquistarlo immediatamente tramite carta di credito. Possono essere personalizzati. I banner inoltre sono l'unica fonte di finanziamento per molti siti. È però una pubblicità 'pericolosa', ma più pericoloso è il fatto che il banner possa essere mirato. Se infatti io una sola volta ho dato le mie informazioni in rete in cambio di qualcosa, queste verranno usate per propormi pubblicità/banner mirati. Per esempio se compilando un modulo in cambio di una casella di posta elettronica ho dichiarato di amare la letteratura, è possibile che veda soprattutto banner di società che vendono libri, mentre se avessi dichiarato di apprezzare la pesca avrei visto principalmente banner di società che producono attrezzatura sportiva. A coprire un ruolo importante in questo modello pubblicitario elettronico sono i cookies. Ma anche la possibilità che le informazioni da me fornite vengano distribuite per la rete senza il mio consenso, visto che la giurisprudenza in materia cambia da paese a paese, è un rischio reale. Un sito Internet deve avere diverse caratteristiche, come mettere a proprio agio il visitatore: 'Se l'ambiente elettronico non cattura l'attenzione del visitatore entro i primi otto secondi, il suo dito non ci penserà oltre a cliccare altrove verso destinazioni più allettanti' e deve creare un senso di comunità, ascoltare le opinioni dei visitatori rispettandone l'individualità, one-to-one, o valorizzare le vanità. Bisogna, insomma, dare la possibilità a chiunque di mettere in mostra qualcosa di sé stessi, come foto, storie, musiche, filmati. Infatti il movente più sicuro perché si torni in una località telematica è quella di verificare che la promessa di mettervi on-line sia stata mantenuta. La voglia di essere protagonisti, potenzialmente di fronte a milioni di persone, è la componente caratteristica di cui generalmente i cybernauti non difettano. Emozioni da poco, ma 'soltanto sapere che il proprio nome galleggia, a qualsiasi titolo, nella nebulosa telematica può dare a molti una vertigine di immortalità'. E sull'esaltazione, la valorizzazione delle vanità puntano gli esperti del mercato elettronico.
Spamming
È la pratica di effettuare spedizioni enormi e indiscriminate di messaggi non richiesti di posta elettronica, reclamizzanti i prodotti più vari, a chiunque abbia un indirizzo e-mail.
Sanford Wallace (soprannominato prima SPAMford e poi Spam King) ventottenne di Dresher, sobborgo di Philadelphia, ha la fama di 'persona più odiata della rete' per averlo inventato. Spamming è un neologismo; deriva da 'Spam' una nota marca di una carne gelatinosa da spalmare. Ci si immagina la situazione in cui il contenuto della scatoletta fosse versato di fronte ad un grosso ventilatore che schizzi la poltiglia in tutte le direzioni. Poco elegante ma efficace: dallo spamming non si salva nessuno. La Cyber Promotions, di cui Wallace è fondatore e presidente, è in grado di spedire milioni di e-mail pubblicitarie al giorno. Il caso seguito dal giudice distrettuale dell'Ohio, James Graham dovrà decidere sulla causa iniziata da Compuserve contro Wallace ed in generale i giudici americani spesso sono coinvolti in cause contro coloro che insistono con la junk mail e spamming. Tuttora i togati di tutto il mondo cercano una soluzione legislativa che ancora non sono riusciti a trovare, una limitazione però è stata in parte fornita dalla Netiquette.
Cookies
(prospettiva del diritto)
Le nuove tecnologie hanno permesso di velocizzare e facilitare gli scambi di informazioni, anche di grosse quantità di dati, così mentre i diritti di proprietà entrano in crisi, la facilità di scambio di informazioni personali mette a dura prova la privatezza dell'individuo. La possibilità di non rivelare in pubblico le proprie informazioni, o impedire a chi ne sia venuto in possesso di divulgarle diventa un diritto, quello alla privacy, difeso dalla giurisprudenza delle maggiori nazioni.
Copyright & Copyleft
Il problema principale dei diritti d'autore, dei diritti di brevetto o di marca depositata è che nell'era digitale è possibile una replicabilità infinita quasi a costo zero. A differenza dell'economia del XIX secolo o dell'economia del XX, basata sulla materia, l'economia contemporanea si fonda nella pura immaterialità. Il problema dell'immateriale è che non costa niente riprodurlo, diffonderlo e per di più è assai difficile dare un carattere personale alle idee immateriali o alle immagini. Sempre più la multimedialità può essere realizzata con immagini, con suoni che vengono dai più diversi orizzonti. Ed è assai difficile proteggere un software, perché spesso 'le idee sono qualcosa di immateriale alla seconda potenza'. È assai difficile caratterizzare l'apporto originale di un'invenzione. Oggi si presentano due ordini di problemi. Primo: la rapida smaterializzazione del supporto dell'informazione. Secondo: l'incapacità di distinguere precisamente ciò che è nuovo, ciò che innova, da quello che c'è di originale in un'opera dello spirito. Questi due parametri di novità fanno pensare che c'è stata una completa rivoluzione e che il diritto d'autore oggi è inadeguato.
Qualcuno all'OMPI, pensa che sia possibile usare, modificandoli un po', accordi come quelli della Convenzione di Berna o della Convenzione di Roma sui diritti d'autore. Però forse è una soluzione insoddisfacente, perché la rivoluzione che noi stiamo vivendo è altrettanto importante dell'invenzione della stampa o dell'invenzione dell'alfabeto. Ne deriveranno dei quadri mentali completamente diversi e dovremo cambiare radicalmente il nostro rapporto con la nozione di originalità e quindi con la nozione di protezione dei diritti d'autore.
La manipolazione digitale pone il problema dei diritti sull'immagine originale e sull'immagine manipolata, come sui suoni o sulle altre espressioni artistiche.
È un problema questo che si può risolvere in due modi, secondo che si sia reazionari o che si voglia andare avanti. Se si è reazionari lo si può risolvere mettendo delle protezioni sulle immagini. Ci sono delle soluzioni tecniche: si possono codificare le immagini con tecniche crittografiche e di 'firma elettronica' e quindi si possono decisamente proteggere. Si può evitare che altre persone, che non siano in possesso della 'firma elettronica' vengano a decodificare e a prelevare immagini, opere artistiche software. O inversamente si possono distribuire le immagini e mostrare che non sono state modificate grazie alla prova dell'originalità, legata alla 'firma elettronica'. Una risposta puramente tecnocratica e giuridica, che non prenda in considerazione l'ampiezza della rivoluzione culturale che si sta preparando, sembra essere assolutamente miope.
'[ . ] è impossibile filosoficamente, ma è possibile tecnologicamente creare piccoli spazi riservati, in cui si potrà custodire, con precauzione, il diritto di proprietà', in cui ci si potrà chiudere nel proprio 'copyright'. Ma c'è un altro concetto, che si mostra più interessante: quello di 'copyleft'.
Alle zone privilegiate, private, dei 'copyright', bisognerà opporre delle zone generose, di distribuzione dell'informazione, che serviranno per la distribuzione gratuita delle idee, indirizzata soprattutto verso le scuole, verso l'educazione, educazione in senso lato, verso i paesi in via di sviluppo, mediante le azioni necessarie a 'ridurre le distanze tra gli 'have' e gli 'have not'', tra chi ha e chi non ha, tra gli info-ricchi e gli info-poveri. Queste azioni potrebbero appoggiarsi su un aspetto del diritto d'autore e del diritto morale di proprietà, molto interessante della giurisprudenza anglosassone, che è il diritto di 'fair use': un diritto che non è dell'autore, ma del lettore, non del proprietario dell'opera, ma dell'utente, perché bisogna pensare anche al bene comune e il bene comune esige che si protegga non soltanto il diritto degli autori, ma anche quello degli utenti.
Nella battaglia per l'affermazione del principio di 'copyleft' si è distinto l'ex- collaboratore del MIT ed hacker di fama mondiale: Richard Stallman. Egli si è dedicato, anche grazie alla sua 'Free Software Foundation', al progetto GNU.
GNU è il nome del sistema operativo a cui Stallman e i suoi collaboratori lavorano già da quattordici anni; questo sistema è interamente costituito da software libero, e ciò lo caratterizza rispetto a tutti gli altri sistemi operativi. Poiché è un software libero, gli utenti hanno la 'libertà', appunto, di modificare il software stesso a seconda dell'uso che se ne vuole fare, hanno la libertà di studiare come funziona il software; e grazie al codice sorgente pubblico- non c'è nulla di segreto all'interno del suo software - e l'utente ha la libertà di fare copie e distribuirle in modo da condividerle col suo vicino. Inoltre si ha la possibilità di fare versioni migliorate e diffonderle sulla rete, al fine di un uso comune; di conseguenza, chiunque può collaborare alla costruzione della sua comunità. Il significato di software libero consiste in queste tre libertà. L'idea stessa di questo sistema è che ogni sua parte è software libero, così un utente può usare un computer che ha esclusivamente software libero per ogni funzione. In questo modo non si è vincolati a nessun proprietario di programmi.
Ma in generale, a parte i cultori del copyleft, nasce la necessità a causa della grandezza babelica della rete, di inventare un sistema di 'browsing', di consultazione virtuale, senza che si sia obbligati ad acquistare l'opera.
Naturalmente c'è differenza tra la protezione dei diritti del software e la protezione dei diritti del contenuto, delle immagini, dei testi. Cioè tra il prodotto che possiamo dire finito, terminato, e che può essere firmato, e la nozione di software, che è il mezzo, lo strumento. Quando si fabbrica una casa con martello e chiodi, non c'è un diritto d'autore sul martello. Ci può essere un diritto d'autore sul progetto dell'architetto, ma non sul mattone, sull'armatura. Oggi i software sono come i martelli e le seghe. Nessuno ha mai pensato a esigere il diritto d'autore sui martelli o sulle seghe, quando si costruisce una casa. Altrimenti dovremmo immaginare che ci sono diversi livelli del diritto d'autore. Ad esempio quando si fa un film con gli effetti speciali si potrebbe immaginare che ci siano i diritti d'autore del regista, quelli del programmatore degli effetti speciali e anche quelli di colui che ha progettato il software, che permette di fare gli effetti speciali, eccetera. Ma poiché questo non è possibile, bisognerà distinguere chiaramente due regimi: il regime dell'opera finita, dell'opera in senso aristotelico, cioè il prodotto, l'opera dell'artigiano e ciò che appartiene all'ordine dei mezzi e che non può essere protetto perché il farlo porterebbe troppe complicazioni. In ogni caso un irrigidimento del 'copyright' snaturerebbe completamente Internet.
Cookies
I cookies, letteralmente dei biscotti, sono una blandizia del Web per carpire informazioni. La scoperta dei cookies è avvenuta grazie ad una versione di Netscape, il browser della Netscape Communication Corporation), che ne rivelava la presenza. Si è scoperto così che i cookies sno dei piccoli file di testo che vengono depositati sul computer del cybernauta ogni volta che questi visita un sito web; e quando egli ricapita sullo stesso sito, il server va a leggere le informazioni contenute nel cookie; esempio che siti sono stati visitati, quante volte, ecc., raccogliendo così le informazioni necessarie per tracciare un profilo esauriente dei gusti del navigatore, 'Conoscere' un navigatore vuol dire sapere, per esempio, indirizzargli la giusta pubblicità attraverso banner personalizzati. Per esempio se si visitano spesso siti dedicati alla pesca è possibili che possa iniziare a vedere banner pubblicitari riguardanti la pesca anche in siti che non trattano assolutamente di pesca.
L'ira delle associazioni di tutela dei diritti elettronici si è abbattuta fragorosamente sugli smerciatori di questi 'alimenti avariati': sfruttando l'ingenuità di innumerevoli navigatori le aziende volevano utilizzare questi minuscoli cavalli di Troia per penetrare subdolamente nella vita privata dell'utente, dritti nel cervello del suo calcolatore. Il dissidio feroce è ancora una volta tra le ragioni del marketing e quelle della privacy. Per chi deve vendere qualcosa è come poter studiare i propri potenziali clienti in un laboratorio elettronico. Di ogni loro mossa, di ogni loro accenno di interesse verso un prodotto anziché verso un altro, rimane traccia, nei mega cervelloni della rete. E anche chi invita a sdrammatizzare i sulla riservatezza e coglie piuttosto i passi avanti sulla strada della personalizzazione del servizio che i cookies fanno fare, non fa che aumentare il timore. I loro difensori affermano che la trappola dei cookies è così scoperta ormai da essere inoffensiva. Gli antidoti alla loro insinuante presenza sono tali da ridurre il problema a dimensioni più che accettabili. Il 'biscotto' può raccontare qualcosa di voi solo a chi l'ha messo, ma la contro-obiezione è che si possa sviluppare rapidamente una borsa valori delle informazioni personali nella quale chi le detiene può rivenderle al soggetto potenzialmente più interessato.
Privacy
'Stare in rete è tanto discreto come camminare su un tappeto bianco con delle scarpe intinte nella pece: per quanto stiate attenti, un segno del vostro passaggio rimarrà' .
La paura del Grande Fratello sembra sempre più avverarsi grazie alle nuove tecnologie, anche se oggi 'è il capitalismo a voler essere il Grande Fratello'. Gli analisti vogliono possedere i dati completi dei clienti per poter sviluppare strategie di marketing mirate al cliente. Lo scambio dei servizi contro la privacy ha aumentato notevolmente la quantità di informazioni personali nei grossi DBMS delle grandi società d'analisi. Proprio quello delle società specializzate nel far rilevamenti sulla demografia e sulla psicografia dei cybernauti è uno dei mercati più floridi e competitivi del momento. La I/Pro, suggerisce addirittura ai cybernauti, per evitare ripetizioni, di compilare una volta per tutte i propri dati nelle loro ine; la HotMail, invece regala una casella di e-mail se si compila il loro modulo. Nel 1996 la Direct Marketing Association, che rappresenta 4000 società in 50 paesi, ha emanato un timido codice di autoregolamentazione. Per fortuna in Italia la legge sulla privacy informatica e non solo, è abbastanza severa e protegge i dati personali dalla divulgazione. Ci sono tanti diritti alla privacy che vengono in conflitto sulle reti. Perché, ad esempio, se da un lato c'è il diritto alla privacy di un soggetto, che non vuole che qualcun altro sulla rete riveli i suoi fatti privati, dall'altro c'è un contrapposto interesse alla privacy di coloro che, entrando in rete vogliano mantenere l'anonimato, che vogliano usare un nome fittizio o uno pseudonimo, perché soltanto attraverso l'anonimato, quindi la difesa della loro 'privacy', riescono ad esprimersi al meglio. Qui si rivela un clamoroso conflitto tra due esigenze di tutela della 'privacy'. Naturalmente è possibile, anzi è indispensabile trovare un equilibrio, perché altrimenti ci sarà qualcuno indebitamente sacrificato. 'Io non posso alzarmi la mattina, andare su una qualsiasi rete, entrare in un gruppo di discussione e trovare tutte le mattine qualcuno che mi insulta. Questa è certamente una violazione della mia sfera privata. Ci sono regole codificate che, in questo caso, mi consentono, per esempio di chiedere un risarcimento del danno, di impedire che questa attività di violazione della mia sfera privata continui'. Ma come si fa se l'altro interlocutore, in nome della sua privacy, vuole rimanere anonimo? Si è suggerito, per questi casi, che il nome sia custodito dal gestore della rete e rivelato soltanto se c'è un problema di questo tipo. I problemi di difesa della privacy, quindi, devono e possono essere affrontati. Ma c'è anche qualcosa di più, perché il rapporto tra sfera pubblica e sfera privata è stato sin qui codificato . Alcuni dicono: 'io riesco a esprimere tutta la mia personalità, e quindi a costruire pienamente la mia sfera privata sulla rete, soltanto se, per esempio, posso rimanere anonimo'. È legittimo o non è legittimo? In via di principio è legittimo, perché un individuo può superare attraverso questa dimensione della virtualità della rete una serie di problemi che altrimenti gli impedirebbero il pieno sviluppo della sua personalità, che è una 'espressione' che si trova all'inizio della nostra Costituzione, come base dei diritti fondamentali della persona. Naturalmente la possibilità di tracciare un confine netto tra sfera pubblica e sfera privata diventa sempre più difficile, perché noi viviamo sempre di più in pubblico. Nel momento in cui si usa una carta di credito, si lascia una traccia, una traccia molto forte, perché dice a che ora si era presenti in quel negozio, che cosa si ha acquistato e quanto si è speso. Questa è una traccia che riguarda la mia sfera privata, ma che entra in una dimensione pubblica, perché il gestore della carta di credito conserva queste informazioni, qualche volta le vende ad altri, che sono interessati a sapere chi sono coloro i quali comprano certi prodotti, per rivolgere loro, per esempio, una certa pubblicità. La sfera pubblica e la sfera privata quindi tendono in molti casi a sovrapporsi, a confondersi.
'Qual è allora il punto finale, provvisorio, come è tutto provvisorio in questa materia?'. Quello fornito nel 1983 dalla Corte Costituzionale tedesca, quando fu interpellata da alcuni cittadini che obiettavano la legittimità di una legge sul censimento, dicendo che con alcune domande invadeva la loro sfera privata: La Corte Costituzionale diede loro ragione, affermando che tutti i cittadini hanno il diritto all'autodeterminazione informativa, cioè a stabilire che cosa vogliono mettere in circolazione, quando sono costretti a mettere in circolazione delle informazioni. Perché, se si vuole usare la carta di credito, si deve fornire delle informazioni: non si può non dare il proprio nome. Il diritto della persona è quello di controllare poi l'uso che altri può fare delle informazioni che egli ha ceduto. Ecco allora la nuova dinamica: la sfera privata, anche quando parzialmente diventa pubblica, viene difesa dallo Stato, non però attraverso la vecchia prospettiva che intendeva la privacy come il 'diritto d'essere lasciato solo'. Nessuno può diffondere informazioni sul mio conto diventa invece il diritto di controllare chi usa le informazioni che mi riguardano.
Scuola dietetica in vista di una maieutica
(prospettiva pedagogica)
Apartheid informatica
Da un punto di vista filosofico, bisogna considerare che i dati a cui avremo accesso non sono autentici, nello stesso senso in cui non è autentico un volantino o un articolo di giornale, anche se ci può essere una firma. Come bisogna acquisire tutta una cultura supplementare, grammaticale, sintattica, retorica, e quello spirito critico che si forma a scuola con lo studio di decine d'anni, prima di padroneggiare la cultura dello scritto, allo stesso modo bisognerà sviluppare una cultura del virtuale e ci vorranno decine d'anni per metterla a punto.
Dobbiamo interrogarci sugli effetti che, non tanto l'introduzione, quanto la diffusione e la generalizzazione delle nuove tecnologie avrà sulla trasformazione del sapere e dei modi che noi conosciamo, con cui 'il sapere si è strutturato in forme di ripetizione, di apprendimento, di insegnamento, ma anche di pratiche dal basso'. È un argomento incredibile, perché noi abbiamo già segnali evidenti che ci dicono che i vecchi media generalisti come la televisione e la radio, ma soprattutto la televisione, hanno drasticamente modificato sia i contenuti che le modalità di trasmissione del sapere. E questo già dovrebbe indurci ad una ricerca capace di capire in che modo la trasmissione tradizionale del sapere, l'amministrazione da parte dei docenti e dell'istituzione scolastica e della stessa università del sapere, riconosciuta e formale, si intreccia nel vissuto dei giovani, nel vissuto degli utenti e nel vissuto degli allievi con tipi di saperi, tipi di linguaggi, ma anche contenuti di sapere, di relazioni comunicative, di relazioni di vita, che vengono invece da un altro tipo di magistero, da un altro tipo di autorità: quello dei media. Ora, se questo era vero e possibile, e già gli studi lo documentano dobbiamo immaginarci che tipo di approfondimento e di cambiamento del processo avverrà con le nuove tecnologie. Quasi sicuramente le nuove tecnologie comporteranno un nuovo tipo di sapere e quindi anche un nuovo tipo di insegnamento e di professionalità docente.
Internet ci mostra come la didattica a distanza stia portando alla fine del maestro reale, con la sa di una sorta di maestro virtuale, che comporta la perdita di tutti i tratti paralinguistici della comunicazione: i gesti, la distanza, il tono della voce. Naturalmente, nessuna tecnologia di comunicazione, per quanto intensa e coinvolgente possa essere, potrà sostituire la trasmissione in presenza. Chiunque abbia realizzato esperienze di formazione a distanza, sa che comunque c'è una perdita semantica di gestualità, di emotività, di coinvolgimento, oltre che di aspetti linguistici e paralinguistici, che letteralmente obbligano a riscrivere la deontologia e gli aspetti costitutivi dell'esperienza di docenza. Più difficile è dire come ciò avverrà. Questo decenni e i prossimi saranno caratterizzati da un intreccio continuo tra vecchie tecnologie della comunicazione e nuove tecnologie, tra vecchie forme di trasmissione del sapere e nuove modalità di invenzione e di scoperta del sapere e di apprendimento del sapere. Attraverso questa transizione, 'uno dei modi per salvare, se sarà possibile, la professionalità docente sarà quello di interagire continuamente tra forme di insegnamento e contenuti tradizionali e capacità di insegnare a leggere e a contestualizzare, in termini culturali e più tradizionali, le nuove tecnologie'. Per quanto possa apparire semplicemente un processo di ristilizzazione del ruolo, la capacità di 'rappresentare' una discreta cognizione delle nuove teorie, delle nuove metodologie, delle nuove tecnologie, potrebbe già essere un elemento che possa rimettere il docente in un circuito di modernità e quindi renderlo credibile agli occhi dei suoi allievi. Il problema fondamentale dell'educazione è che non può darsi educazione se l'operatore della trasmissione viene considerato un attore del passato. Occorrerebbe che il nuovo governo dell'istruzione investisse, con coraggio e con determinazione, in grandi progetti, non di solo aggiornamento degli insegnanti, ma di 'riacclimatamento' culturale degli insegnanti alle nuove condizioni del loro agire. Oggigiorno cambia, anzitutto, 'l'attitudine del soggetto ad offrirsi in condizioni di vaso vuoto. [ . ] I giovani non sono assolutamente nell'attitudine di apprendere qualcosa, [ . ] ma sono nell'attitudine di interagire'. Questo è un mutamento epocale. Tutte le pratiche dell'istruzione sono fondate sulla trasmissione. Mentre tutte le attitudini dei discenti sono fondate sull'interazione. È necessaria una triangolazione continua tra utenti del processo di formazione e di comunicazione, tecnologie e docenti, i quali devono recuperare un loro ruolo, ponendosi come un elemento di interposizione tra le tecnologie e i soggetti che accedono ad esse.
Stefano Rodotà ha denunciato il pericolo di una 'apartheid informatica'. Ma già alla fine degli anni Ottanta, nelle più difficili condizioni della scuola, alcuni sociologi avevano preurato le condizioni di una nuova ferita; dovuta alle nuove differenze di 'chances'. Noi sappiamo che le disuguaglianze cambieranno nel futuro, poiché esse possiedono questa natura sordida di presentarsi sempre in maniera diversa rispetto al passato. Le disuguaglianze legate alle ferite di classe sono diventate più evanescenti, anche se non sono sse; quelle legate alle differenze culturali sono state, in qualche modo, superate dagli anni Ottanta: dal momento in cui c'è stato un exploit della cultura di massa. Adesso, la nuova frontiera delle disuguaglianze è certamente quella sui nuovi saperi. Quello che bisogna fare è cercare di governare l'approdo di un numero sempre più vasto di soggetti alle nuove tecnologie della comunicazione, affinché le nuove tecnologie non siano il passaporto di nuovi poteri, o di nuove forme di arroganza e di disuguaglianza sociale: info-ricchi contro info-poveri.
Storia dei fallimenti tecnologici nella scuola.
'Gli insegnanti dell'era digitale dovranno imparare a memoria lo slogan 'Learning by doing', imparare facendo'. Già negli anni '70 il professor Seymour Papert del MIT e allievo diretto del pedagogo Jean Piaget, teneva convegni dal titolo 'Learn Think to Children', cioè 'insegnare ai bambini a pensare'. Secondo lui per mettere al passo l'insegnamento con la società dell'informazione bisognava anzitutto sbarazzarsi della tirannia delle 'tre R' (reading 'riting 'rithmetics). Bisogna rinunciare al puro dato 'in vista di una scuola dietetica'. Questa tesi costruttivista, sta conoscendo oggi riformatori più spinti che criticano la struttura e l'architettura della classe tradizionale. Per abolire i blocchi psicologici si propongono architetture a 'gruppetto', ma qualcuno propone addirittura le classi virtuali.
La tecnologia si è sempre scontrata con la scuola perché non si è riusciti a far interagire la struttura di classe con la dinamicità della tecnologia comunicativa. L'insegnante deve imparare ad abbandonare il suo ruolo di 'sage on the stage' per assumere quello di 'guide and trainer' della conoscenza.
L'apologia però del edutainment non è l'unica risposta. Il Postman nel suo libro dal titolo inequivocabile, 'The End of Education', irride a coloro che fanno leva sui PC per riformare la scuola: 'Riconoscono una falsa divinità quando ne vedo una'.
Verso una maieutica di fine millennio
'Se cinquant'anni fa, sfruttando le potenzialità, peraltro già tecnicamente mature, del cinema, si fossero consegnate alle generazioni future interviste-lezioni filmate, di Einstein e Freud, di Husserl e Heidegger, di Croce e Wittgenstein, si sarebbe reso un grande servizio all'umanità'. C'è da chiedersi perché nessuno, pur potendolo fare, abbia pensato di raccogliere in modo sistematico queste preziose testimonianze della nostra civiltà. Tra le tante ipotesi c'è anche quella che nessuno credeva che si potesse diffondere il sapere, quello vero, al di fuori dei libri, dimenticando che duemilacinquecento anni fa, una polemica analoga, e inversa, era scoppiata nell'antica Grecia quando Platone e Aristotele, soppiantarono la comunicazione orale, dominante da Omero fino a Socrate, e imposero la scrittura, strumento considerato a quei tempi, autoritario, sordo e negazione del dialogo maieutico.
Studiando per anni il cervello e i suoi meccanismi Gardner ha scoperto l'esistenza di otto diversi tipi di intelligenze, sei in più rispetto alle due prese in considerazione dai test standard per la valutazione del QI. Le nuove tecnologie sono in perfetta sintonia con queste intelligenze multiple: permettono, infatti, di gestire il materiale di studio secondo punti di vista diversi, quelli suggeriti dalle diverse intelligenze multiple.
Oggi è opportuno accoppiare metodi e tecniche a distanza con quelli tradizionali. E questo per un'osservazione storica molto elementare. Duecento anni fa, quando non c'erano le scuole pubbliche, c'era il tutore che andava a casa di chi poteva permettersi di arlo.
Quando furono introdotte le scuole pubbliche e la formazione divenne obbligatoria, poteva esserci chi riteneva che la formazione del proprio lio in una scuola, quindi in un rapporto meno diretto che col tutore, potesse essere meno efficace. In realtà ciò che si perdeva da un parte, si guadagnava dall'altra. Analogamente, tecnologia a distanza, informatica, telecomunicazioni sono strumenti che possono arricchire, non necessariamente arricchiscono, ma possono arricchire la formazione. Naturalmente, non esiste una ricetta per dire esattamente quando arricchiscono e quando no.
Però, si può dire con sicurezza che se queste scelte non saranno fatte, e anche con una certa rapidità, molte persone non avranno opportunità formative, anche nei paesi 'avanzati' come il nostro. Insomma, la scelta contraria significa lasciar fuori dalla formazione di base e soprattutto dal 're-training' grandi fasce di popolazione, perché non ci sono altre possibilità per coprire questi bisogni di continuo aggiornamento, di continua formazione. Sul problema dei contatti umani, la persona, cioè il docente, 'è sostanzialmente insostituibile in due momenti formativi'. Il primo è quello motivazionale: il docente è come uno psicologo, lo diceva anche Platone quando parlava di Socrate e della 'maieutica', cioè della capacità di far nascere i concetti e quindi di far imparare qualcun altro. L'altro aspetto in cui il docente è insostituibile, è la valutazione del risultato. Sicuramente l'insegnante o comunque una persona esperta è meglio di qualsiasi macchina per valutare una persona. Mentre tutte le altre componenti del percorso formativo sono e saranno sempre più sostituibili, almeno in gran parte, da sistemi automatici; le altre no, la motivazione e la valutazione no. È vero che con le tecniche a distanza si rischia di isolare gli studenti; ma quanto sono già autodidatti questi studenti? 'Non capita che in corsi universitari molto affollati si verifichi già un processo di autoformazione? O addirittura di autoformazione a distanza'.
Quindi quello che si deve ritrovare è la ura del maestro non unidirezionale, non di docente che trasmette informazioni. Ci sono già molti modi per procurarsi informazioni. Ma un insegnante che insegni a scegliere l'informazione, che possa trasmettere 'modelli etici selettivi' e possa sviluppare, nello stesso discente, quello spirito critico e autocritico fondamentale 'per galleggiare e non affogare sul mare dell'informazione'. La centralità sembra tornare ad essere dell'uomo, sebbene coadiuvato da tecnologie di alto livello tecnico. E così la 'maieutica torna ad essere più importante della scrittura'.
Conseguenze
Nella prima e nella seconda parte di questa tesi si sono proposti i grandi cambiamenti epocali per arrivare a discutere dei rischi possibili che deve e dovrà affrontare un diritto civile. Nelle conseguenze si conurano aspetti rilevanti e si avanzano alcune proposte di soluzione filosofiche, politiche e giurisprudenziali.
Conseguenze parte I
Da quando l'informazione è stata automatizzata ed è nata l'informatica, la rivoluzione è stata esponenziale, e 'quasi incontrollabile, quasi autonoma'. Rivoluzione che in qualche modo ha modificato il 'centro di gravità' dell'agire umano, dall'atomo al bit. L'informazione, il dato ha assunto crescente valore fino a diventare elemento predominante nella decisionalità politica, economica, sociale dell'uomo.
La potenza del cambiamento e la grandezza delle modifiche sono stati tali da creare, in un'epoca detta scientifica, una nuova mitologia della tecnica. Preoccupazioni ancestrali sono divenuti mostri contemporanei, pensati come grandi macchine e immensi sistemi, nati dall'uomo per annientare l'uomo. I miti, le paure e le utopie sono nate, principalmente e paradossalmente dagli stessi scienziati.
La rapidità di strabordamento delle alte tecnologie nel mondo civile, non ha lasciato tempo per l'adattamento, creando profondi divari e distinguendo il mondo in due grandi 'ceti informazionali': info-ricchi e info-poveri. Il rilevante gap formativo ha messo in crisi in vecchi sistemi economici, basati sulla produzione, e quindi sulla materia. Nell'economia contemporanea il servizio ha soppiantato i beni primari, e le informazioni hanno assunto un valore di mercato talmente alto, rispetto ai beni materiali, da essere il motore trainante dell'economia finanziaria internazionale.
Le modifiche fisiche, percettive e antropologiche dell''infosistema terrestre' hanno modificato radicalmente le scienze umane, creando crisi e rinascite delle stesse sotto la nuova ottica binaria. Anche lo spirito critico, formato per la società in secoli di abitudini culturali e per l'individuo in anni di studio, viene messo in discussione da 'grovigli ipertestuali e maree iperinformative di dati'; l'uomo si trova gettato di fronte a grandezze informazionali impensabili, più-che-babeliche, dove la materia tende a sparire e la grandezza del 'movimento tecnologico'.
Nasce quella sensazione di perdita dell'orizzonte, che incute paure o speranza, ma appare pur sempre sublime. Il virtuale, la comunicazione globale diviene 'tanto un nuovo strumento di intelligibilità quanto uno strumento di alienazione dell'uomo'.
Conseguenze parte II
Sociologia
Tutto ciò che avviene nel computer non è simulazione. Quindi è una nuova frontiera, perché ci porta a delle avventure che si vivono soltanto con la mente, ma che non sono simulate. Questo non potrà che portare conseguenze senza precedenti, alcune delle quali ancora non conosciamo. Noi non sappiamo ancora come si modificherà il nostro comportamento, il nostro modo di pensare, vivendo fuori da quel particolare tipo di gravità che è la presenza, 'la nostra interezza fisica'. Viaggia solo la nostra mente. È la mente che è portatrice della nostra identità, oppure essa dipende anche dal come appariamo, dal come ci presentiamo, dal come siamo davvero fisicamente, in natura?
La comunicazione globale è vista come una 'negativa' alienazione nell'irrealtà, anche se in realtà sarebbe meglio definirla come una realtà non locale, oppure come un 'positiva' nuova frontiera. A definirla nuova frontiera sono state gli statunitensi, che hanno riutilizzato un termine forte nel loro paese: frontiera era il 'glorioso' far west, frontiera stellare era lo spazio, e frontiera digitale è quella che si sono spinti a 'conquistare'. La nuova era digitale, con le sue frontiere, del resto può bene essere considerata un far west, senza leggi, e dove domina il più forte. E fino ad ora i fatti lo confermano: con le grandi battaglie tra le società più importanti del mondo nel settore, ma anche i singoli cibernauti con i loro duelli verbali.
Il rischio di alienazione all'interno delle tecnologie comunicative globali è fortissimo, con la possibilità di perdere identità localistica, trovandosi proiettati in un mondo inesistente, ma giusto. Chi ha in mano le armi del secolo, cioè le conoscenze informatiche adeguate, combatte i grandi sistemi e le grandi Corporations con tattiche di guerriglia digitale diversa. c'è chi 'attacca' i sistemi informatici penetrandoci dentro, solo per dimostrare a sé stesso e agli altri di saperlo fare, o chi poi ruba informazioni e le vende a caro prezzo, facendo del vero pirataggio criminale, o le regala solo per infliggere duri colpi finanziari alle grandi società. C'è chi poi 'attacca e intacca' i sistemi portandoli al collasso. Ma queste azioni possono essere fatte solo da rivoluzionari preparati. Tra la gente comune si usano nuovi modi di fare con la rete, come i Lurkers che, non arrivando agli estremismi anti-tecnologici dei neo-luddisti, si oppongono all'alienazione delle reti guardando senza essere visti. Lasciandosi così la possibilità di dialogare con media orizzontali (pull).
Un forte rischio, attraverso le reti, per tutte le nazioni occidentali non anglofone, è la perdita di identità locali e linguistiche a favore della cultura forte ed invasiva degli statunitensi; senza interventi diretti, anche linguistici, da parte dei governi, il pericolo e costante.
Etica etaria
Noi dobbiamo avere dei valori che non siano 'standard', ma che siano la media di qualche cosa. Dobbiamo avere delle regole che ci permettano di considerare tutti gli uomini come appartenenti ad una razza umana, senza dimenticare le differenze.
Dobbiamo costituire una 'etica etaria' che punti ad affrontare i problemi dell'uomo nel suo complesso, senza vincoli nazionali, perché con le tecnologie comunicative globali questi vincoli sono già stati abbattuti.
Questo è un compito che sarà difficilissimo. L'incontro tra le culture, che sembra già compiuto attraverso questi mezzi di comunicazione di massa, in realtà è soltanto all'inizio. Noi siamo al 'V° secolo dell'era globale', cioè, da quando Cristoforo Colombo ha unito, involontariamente, il vecchio e il nuovo mondo. Ci stiamo 'globalizzando', quindi, da soli cinque secoli. Ma la storia dell'homo sapiens, come dicono gli studiosi della materia, è una storia che ha, per quanto riguarda la nostra specie, dai 150.000 ai 180.000 anni; cinque secoli, dunque, rispetto a questa catena evolutiva, se non vogliamo considerare gli antenati, il cosiddetto 'homo habilis', sono pochissimi. L'etica etaria che va costituendosi riguarda il rispetto del globo a beneficio mondiale, secondo l'analisi dello sviluppo sostenibile. Del resto gran parte della decisionalità si sviluppa oggi sul concetto sostenibilità dell'evoluzione umana, senza intaccare in maniera definitiva 'possibilità' ecologiche o sociali.
Politica
Esistono rischi reali e attuali sulla manipolazione dell'informazione grazie alle tecnologie digitali. Benché la comunicazione globale favorisca da una parte la veridicità, dall'altra la nega perché permette la diffusione di false notizie.
Sulle potenziali manipolazioni dell'informazione futura nascono paure o addirittura fobie, che vedono la nascita di un Grande Fratello. Seppure non politico, come lo aveva previsto Orwell, ma probabilmente economico e finanziario. A contrastare la credulità popolare sulla purezza delle informazioni, ma nato anche per andare contro il diritto di proprietà intellettuale, c'è il co-individuo Luther Blissett, che, con le sue 'operazioni scoop' ridicolizza il sistema informativo massmediatico.
L'informazione distorta ha fatto nascere grandi speranze nelle politiche del futuro. Ha spinto a credere nella tecnologia fine a sé stessa, come mezzo per una democratizzazione della società. Dimenticando la centralità dell'uomo nell'opera democratizzatrice, in quanto elemento mediativo, e non mediatico, della politica, e soprattutto della politica democratica, nella quale è la rappresentanza a fornire la sicurezza nella giusta scelta, e allo stesso tempo ad allontanare i pericoli plebiscitari, già accennati negli anni passati dai push-media.
Economia
Le battaglie operaie nell'ultimo secolo e mezzo, hanno combattuto le forme alienanti del lavoro; come con le tecnologie di seriali, nelle quali alienazione nel lavoro arrivava ad essere 'alienazione nella ripetizione'. Con la sempre maggiore automazione meccanica e soprattutto con quella informazionale, la diminuzione dei compiti e delle responsabilità ha spostato la causa della alienazione. Non più centrata sul lavoro, sempre meno presente e più specialistico, ma sulla 'delega tecnologica', cioè un'alienazione dell'uomo negli automatismi. Inoltre aumentando i divari formativi e informazionali, e creando sempre più preparate e meglio retribuite classi di 'knowledge workers', il divario tra le classi dell'era digitale non a fatto che aumentare, mutando forma dall'alienazione nel lavoro a quella nel non-lavoro, eliminando il diritto alla realizzazione dell'uomo nel lavoro.
Sapere
Tra i diritti che vengono infranti dalle nuove tecnologie, quelli riguardanti l'infanzia sono i meno osservati. Si parla spesso di rischi nella comunicazione, a causa della pedofilia o della pornografia. Sono rischi reali, presenti nella vita comune, ma accentuati dalla facilità con cui in rete si può contattare una persona. La facilità di contatto favorisce la possibilità di adescamento da parte di pedofili, o da parte di persone pericolose. Dall'altra parte anche i rischi per un minore di contattare la pornografia sono molto facili, anzi facilissimi visto che l'70% delle immagini che circola in rete è a carattere erotico. Questi rischi si affrontano in diversi modi. Sarebbe insensato impedire l'uso della rete ad un minore, vista la diffusione attuale, la scelta migliore dev'essere quella dell'educazione, anche se non è facile, visto che solitamente sono i piccoli ad avere un miglior rapporto con le tecnologie rispetto a grandi.
Le soluzioni politiche sono state disastrose, quando si è cercato di vietare la pubblicazione di siti porno si sono rivoltate le associazioni per i diritti di libertà di stampa, perché diversi governi avevano censurato anche newsgroup e siti che contenevano la parola 'sesso', seppure non fossero a contenuto erotico e/o pornografico.
Le soluzioni tecniche finora proposte non risolvono il problema vista anche la semplicità di elusione dei sistemi protettivi, e tanto meno si può fare con le chat. L'ingresso di insegnamenti etici e tecnici nelle scuole sarebbe forse una buona soluzione, invece di supporre che meno di questi problemi si parli con i minori meno rischi ci sono; purtroppo ancora i governi non prendono in considerazione questa possibilità, puntando tutto sull'aggiornamento tecnico e tecnologico delle scuole, e niente sulla formazione morale per non affrontare indifesi il mondo della rete.
Problemi giurisprudenziali
(Controllo globale)
La paura del Grande Fratello è la paura ancestrale della non libertà di pensiero. Paura molto più forte in un mondo occidentale dove molti limiti sono stati superati. Il Grande Fratello tecnologico sembrano essere le grandi banche dati delle multinazionali economiche. Raccolgono dati personali, gusti, hobby, studi fatti, ecc., di molte persone in tutto il mondo. Come si può fare per intervenire? Sarebbe forse una battaglia improba evitare che i dati circolassero, anche perché molti continuano a fornire i loro dati a società di raccolta dati senza nemmeno rendersene conto, e senza conoscere le conseguenze possibili. La soluzione più realistica potrebbe essere quella di controlli incrociati, sulle grandi banche dati da parte di tutori governativi e associazioni dei consumatori. Ormai i dati circolano, il controllo deve evitare che vengano usati in maniera impropria, come già avviene per la pubblicità subdola (perché mirata e personalizzata) dei banner nel web. La comunità europea sta già iniziando a creare un comitato governativo per leggi che regolino il settore informativo e informatico, ma le soluzioni più efficaci potranno essere prese solo a livello globale, con commissione internazionali.
(Privacy)
Quando i fatti personali erano alla mercé della memoria i problemi della privacy non esistevano. Con le tecnologie digitali e la possibilità di comunicazione globale si ha avuto il mezzo per mantenere e diffondere una informazione, anche privata. La limitazione temporale di un fatto privato, data dalla 'memoria della gente', o alla deperibilità di memorie cartacee o magnetiche, lasciava una buona occasione all'oblio. Si poteva dimenticare, mentre oggi questo diventa più difficile. La facilità di duplicazione e di divulgazione di una informazione rendono quasi a-temporale, limando il passato e appiattendolo all'ora, in una sorta di presente continuo. La tecnologia dell'informazione modifica il significato del termine 'memoria', che oggi designa soprattutto una memoria esterna, estroflessa, misurabile con l'unità di misura del digitale: il byte. L'archiviazione tende a dilagare, poiché qualunque dato potrebbe essere usato in futuro. Se l'informazione riguarda la sfera privata di un individuo, si può creare così un trauma molto forte.
Questa schiacciante mole di dati memorizzati e disponibili, costituisce una minaccia per ogni individuo. L'unica alternativa sembra essere 'l'oblio'. Non un oblio casuale, ma un oblio volontario, selettivo, basato sul desiderio di fare spazio a nuove e più importanti conoscenze. L'oblio consentirebbe di disporre i ricordi in una dimensione cronologica: grazie al chiaroscuro prodotto dalla maggiore o minore vividezza dei ricordi si crea un 'senso della prospettiva storica', che invece viene annullata se i ricordi sono presenti tutti con uguale forza in un 'eterno presente, un [ . ] eterno attuale'.
(Limiti nazionali)
La giurisprudenza attuale è limitata ai confini nazionali. I conflitti della rete riguardano la civilistica o la penalistica, ma i confini nazionali della giurisprudenza si scontrano con casi internazionali. Benché la penalistica italiana, come quella di altre nazioni civili occidentali, preveda pene per colpe commesse anche al di fuori dei confini nazionali, diventa più difficile sbrogliare la questione morale. Esempio: in alcuni paesi del mondo l'abito di acquistare una giovanissima ragazza come moglie non è considerato illegale, mentre nei paesi occidentali, è ritenuto quanto meno immorale; come deve comportarsi uno stato occidentale se l'acquisto avviene via rete? Problemi analoghi, in cui vengono cozzare morali e legislazioni diverse, sono davvero numerosi. Il problema dell'esempio è un problema limite, ma sulle questioni del diritto d'autore o degli altri diritti di proprietà intellettuale lo scontro tra nazioni è aperto e duro. Non si vede ancora luce di soluzione, e per ora a arne i danni sono su questo fronte autori o artisti. Indubbiamente i problemi giuridici extraterritoriali diventano, giorno dopo giorno, talmente rilevanti da costringere l'utilizzo di filosofie del diritto adeguate al nuove troncone extraterritoriale della giurisprudenza.
Appendice I - Le reti neurali
Le radici dell'Artificial Life, possono essere rinvenute negli automi di John Von Neumann e Arthur W. Burks. Nelle parole dello stesso Burks, che fu il continuatore della sua opera, Von Neumann si chiedeva:
'Quale tipo di organizzazione logica è sufficiente ad un automa per riprodurre se stesso? Questa domanda non è precisa ed ammette sia una risposta banale che una interessante. Von Neumann aveva in mente il fenomeno naturale dell'autoproduzione quando la pose, ma non tentò di simulare l'autoproduzione di un sistema naturale a livello genetico e biochimico. Egli voleva astrarre dal problema naturale dell'autoproduzione la sua forma logica'.
Il formalismo che permise la realizzazione di un tale sistema, fu proposto da un suo collega, Stan Ulam, con il nome di Automa Cellulare. Una automa cellulare è semplicemente un sistema che può avere un numero finito di stati ed il cui stato è determinato dallo stato di altri automi che lo circondano. Il comportamento degli automi cellulari diventa interessante proprio perché formano una rete di interazioni, il cui comportamento globale, nel tempo, non è prevedibile; anche se le leggi che governano i passaggi di stato per ogni singolo automa sono semplici e ben determinate. Lo stato di ogni automa di questa rete, in ogni istante di tempo, è determinato dallo stato posseduto, nell'istante precedente, dagli automi che lo circondano. Con gli automi cellulari, Von Neumann impostò un sistema capace di autoreplicarsi e stabilì che qualunque sistema capace di fare ciò, doveva fare uso delle informazioni contenute nella sua descrizione in due modi fondamentalmente differenti: sia interpretando che non interpretando. Interpretate le informazioni dovevano tradursi in azioni da compiere per realizzare il replicante, non interpretate dovevano essere soltanto copiate, perché sarebbero state l'analoga descrizione per il replicante. Quando in seguito si scoprì la struttura e il funzionamento del DNA emerse che erano proprio i modi in cui cellula - METABOLISMO, LA RESPIRAZIONE, RESPIRAZIONE AEROBICA DELLA SOSTANZA ORGANICA" class="text">la cellula fa uso delle informazioni contenute in esso durante i suoi processi di trascrizione e traduzione da una parte e replicazione dall'altra.
La storia delle reti neurali inizia con Warren S. McCulloch e Walther Pitts e poi con il perceptron di Frank Rosenblatt. Fino agli anni ottanta l'unico filone di ricerca sulla Artificial Life è stato quello degli automi cellulari. In seguito vari settori scientifici si interessano alla Artificial Life Proprio per unificare gli sforzi e fare il punto della situazione, nel settembre del 1987 si è tenuta a Santa Fe la prima conferenza sulla Artificial Life (considerato l'atto di nascita ufficiale di questa nuova scienza), organizzata da Chris Langton del Santa Fe Institute. Ad essa parteciparono non solo scienziati che in varia misura lavoravano sulla robotica e sulla cibernetica, ma anche filosofi, chimici e biologi. Oggi possiamo distinguere già due filoni, quello della robotica e quello delle simulazioni. Nelle simulazioni che si fanno in questo campo, si utilizzano in genere alternativamente strategie che possono essere considerate ispirate all'apprendimento in vita (tramite backproation, principalmente, ma anche con l'apprendimento competitivo); oppure all'apprendimento su base genetica, che si compie di generazione in generazione (tramite algoritmi genetici).
Le reti hanno oggi trovato utilizzazione soprattutto nei vari campi che richiedono una percezione artificiale in qualche modo paragonabile a quella umana; oppure alla necessità di trovare collegamenti o categorizzare situazioni difficilmente definibili. I principali campi di applicazione sono infatti: visione e riconoscimento de forme grafiche; interpretazione di segnali; robotica e veicoli autonomi; riconoscimento della voce; linguaggio naturale; sistemi di supporto alle decisioni; diagnosi; previsioni; problemi di ottimazione; controllo di processi.
Appendice II - Estremismi
Esistono esempi di blitzkrieg in ambito elettorale tramite l'e-mail, poco costosa e molto diffusa. Ma esiste in rete la possibilità di unire estremisti pericolosi.
The Hate Page of the Week dove lo studente texano Frank Xavier Placencia ha deciso di raccogliere i frammenti telematici che dimostrano come antisemitismo e razzismo siano ancora oggi pericoli per l'umanità.
Il Ku Klux Klan che affermano: 'Noi crediamo che ognuno abbia il diritto di essere fiero della propria razza, il che significa che anche i Bianchi ne hanno diritto'.
La Aryan Nation dice:'Noi crediamo che l'ebreo cananita sia il nemico naturale della nostra Razza Ariana (Bianca). L'ebreo è come un virus distruttivo che attacca il nostro corpo razziale per distruggere la nostra cultura e la nostra purezza. [quello che fa guardare] ad una coppia di razza mista con una smorfia di dolore sul viso e ripugnanza nelle orecchie . No, non è odio: è amore'.
L'Associazione Rupe Tarpea rappresentate dell'estrema destra italiana dà il suo benvenuto alla ina e propone percorsi alternativi: 1. Se sei un povero disperato che dal pregiudizio antifascista, della chiusura mentale, della limitatezza intellettuale e della mediocrità fa il proprio stile di vita, allora vattene che è meglio [N.d.A. l'invito diventa un link ipertestuale che invia in una ina dedicata all'omosessualità] visto che lo scoprire che il nemico si sta impossessando dei mezzi multimediali potrebbe esserti fatale; 2. Se invece ci odi e ci disprezzi dovresti dare un'occhiata. Per curiosità, per studiare le nostre mosse o magari per lasciarci un messaggio di insulti; 3. Porte aperte, infine, ai solidali e simpatizzanti: per loro si spalancano sentieri elettronici verso Julius Evola, il 'Foglio di lotta' e altri bollettini di militanza nera.
Infine un sito dedicato alle barzellette sui 'negri', il Niger Joke Center che sputa sentenze e freddure: 'Sapete perché i negri puzzano? Perché così anche i ciechi li possono riconoscere' oppure 'Sapete perché la California ha così tanti froci e New York così tanti negri? Perché la California ha scelto per prima . '.
O siti del tutto opposti come il sito del Esercito Zapatista di Liberazione Nazionale del subcomandante Marcos per difendere i diritti del Chiapas nel Messico.
O l'esempio nel 1988 in Brasile. Dopo l'assassinio del leader ecologista Chico Mendes da parte dei sicari dei proprietari terrieri disturbati dalle sue inesorabili denunce, si alzò un polverone telematico di e-mail, il tamtam mediatico raggiunge tutto il globo e la polizia fu spinta a rintracciare ed arrestare velocemente i colpevoli.
Anche il messaggio di Elstin che chiedeva di opporsi al tentativo controrivoluzionario dei putschisti di Mosca (nei tre giorni a partire dal 19 agosto 1991) fu messo in circolo grazie alle massicce spedizioni di e-mail dal piccolo computer del comno Dima Volodin. L'annuncio, intitolato sobriamente 'Il decreto Eltsin' chiedeva inizialmente ai destinatari dei newsgroup cui fu inizialmente indirizzato di 'ridistribuire il più ampiamente possibile il seguente messaggio nella versione russa e nella sua approssimativa traduzione inglese. Sarebbe buona cosa se raggiungesse le agenzie internazionali di stampa. Grazie. Dima' quindi seguiva il testo del provvedimento d'urgenza nel quale il Presidente della Repubblica federale russa informava che 'un tentativo di colpo di stato era stato messo in atto e il presidente dell'URSS, che è il comandante in capo dell'esercito sovietico, era stato rimosso dal suo posto. Il vicepresidente, il primo ministro, il ministro della Difesa e quello degli Interni avevano formato un corpo incostituzionale, con ciò commettendo un crimine di stato. Come risultato di tale azione l'attività del legittimo esecutivo era paralizzata. In questa situazione io [N.d.A. Boris Eltsin] decreto: . ' e seguivano una serie di contromisure di mobilitazione della cittadinanza.
Un caso più recente è del 1996 in Jugoslavia, per l'arbitraria e odiosa chiusura da parte del governo di Slobodan Milosevic di Radio B92. Dopo pochi giorni la radio fu riaperta in Internet con un pubblico molto più grande.
Il sito dei Tupac Amaru (https://burn.ucsd.edu/~ats/mrta.html) trasmetteva, durante tutta la fase di sequestro dell'ambasciata giapponese in Perù, l'attività dei guerriglieri all'interno dell'ambasciata; il giorno dopo l'uccisione dei guerriglieri la ina veniva trasformata in una lapide telematica.
Appendice III - Smiley
Gli smiley (faccine) o emoticon, sono sequenze di caratteri introdotte nel corso degli anni dagli utenti di posta elettronica per esprimere emozioni, opinioni e stati d'animo nel contesto dei loro messaggi. Per interpretare uno smiley bisogna piegare la testa a sinistra e giocare un po' di fantasia per riconoscere un volto stilizzato. Per inventarne di nuovi il procedimento è più o meno lo stesso.
Smiley elementari
:-) Smiley base, usato
per sottolineare un'affermazione scherzosa.
;-) Smiley ammiccante. L'utente fa l'occhiolino per sottolineare l'intenzione
scherzosa di un'affermazione sarcastica.
:-( Smiley triste. L'utente non ha gradito l'ultima affermazione o è
indispettito o depresso per qualche motivo.
:-> L'utente ha appena affermato qualcosa di realmente sarcastico.
Variazioni sul tema
:-|
Sorriso sardonico.
:-|| L'utente è arrabbiato.
:/) L'utente non è divertito.
:D L'utente ride.
:O L'utente urla.
:[ L'utente è depresso.
;( L'utente piange.
:'( L'utente piange.
:'-) L'utente piange di gioia.
!-( L'utente ha un occhio nero.
#-) L'utente ha folleggiato per tutta la notte.
$-) L'utente ha vinto un premio alla lotteria.
%*} L'utente è ubriaco.
%') L'utente è ubriaco fradicio.
%+:-) Utente felice (con parrucchino sollevato per un colpo di vento)
}:-( Utente triste perché un colpo di vento gli ha sollevato il parrucchino.
'-) L'utente sta ammiccando.
':-) L'utente si è rasato per errore un sopracciglio (il destro).
,:-) L'utente si è rasato per errore un sopracciglio (il sinistro).
(-: L'utente è australiano.
(-: L'utente è mancino.
<|-) L'utente è cinese.
<|-( L'utente è cinese e non ama questo genere di scherzi.
8-) L'utente porta gli occhiali.
8:-) L'utente porta gli occhiali sulla fronte.
::-) L'utente porta occhiali normali.
B-) L'utente porta occhiali cerchiati di corno.
B:-) L'utente porta occhiali da sole sulla fronte.
:>) L'utente ha il nasone.
:^) L'utente ha il naso rotto.
(:-$ L'utente è malato.
(:-& L'utente è arrabbiato.
(:-( L'utente è indispettito.
(:-O L'utente è sorpreso.
(:-* L'utente manda un bacio.
(:I L'utente è calvo.
) Sorriso.
*<:-) L'utente indossa il cappello di Babbo Natale.
.-) L'utente ha un occhio solo.
,-) L'utente ha un occhio solo e lo strizza.
8-| L'utente ha gli occhi spalancati per la sorpresa.
8:-) L'utente è una bambina.
:-)-8 L'utente è una ragazza prosperosa.
:* Baci.
:-! L'utente sorride blandamente.
:-$ L'utente ha la bocca chiusa.
:-& L'utente ha la bocca chiusa.
:-$ L'utente è incerto.
:-'| L'utente ha il raffreddore.
:-( L'utente è triste.
:-(0) L'utente sta urlando.
:-(=) L'utente ha i dentoni.
:-)X L'utente indossa il papillon.
:-)} L'utente ha una barbetta a punta.
:-* L'utente ha appena assaggiato qualcosa di acido.
:-6 L'utente ha appena assaggiato qualcosa di amaro.
:-/ L'utente è indeciso.
:-/ L'utente è scettico.
:-l L'utente sorride debolmente.
:-7 L'utente fuma una pipa.
:-? L'utente fuma una pipa.
:-7 L'utente ha appena affermato qualcosa di falso.
:-9 L'utente si lecca le labbra.
:-< L'utente è davvero triste.
:-@ L'utente è arrabbiato.
:-C L'utente è totalmente incredulo.
:-C L'utente è indispettito.
:-D L'utente ride fragorosamente.
:-I L'utente sta pensando.
:-P L'utente fa linguacce.
:-p L'utente fa linguacce.
:-r L'utente fa linguacce.
:-Q L'utente è un fumatore.
:-S L'utente ha appena detto qualcosa di incoerente.
:-T L'utente è onesto.
:-V L'utente sta urlando.
:-X L'utente ti manda un bacione!
:-X L'utente tiene la bocca chiusa.
:-Y L'utente parla di lato.
:-[ L'utente è triste.
:-[ L'utente è particolarmente arrabbiato.
:-[ L'utente è un vampiro.
:- L'utente è indeciso.
:-] Sarcasmo pungente.
:-` L'utente sputa del tabacco masticato.
:-e L'utente è indispettito.
:-l Ancora un altro smiley.
:-o L'utente è sorpreso.
:-s Dopo un commento bizzarro.
:-v L'utente sta parlando.
:-x Bacioni!
:- L'utente ha il rossetto.
:-| L'utente ha trascorso una giornata come le altre.
<:-( L'utente è un asino.
<:-I L'utente è un asino.
>-< L'utente è davvero incollerito.
@:-) L'utente ha il ciuffo.
@:-) L'utente porta un turbante.
@= L'utente è pro-guerra nucleare.
C:-) L'utente è un cervellone.
C=:-) L'utente è uno chef.
O :-) L'utente è un angelo.
Q:-) L'utente si è appena laureato.
X-( L'utente è appena morto.
[:-) L'utente ascolta un walkman.
[:] L'utente è un robot.
[] Baci e abbracci.
|-I L'utente è addormentato.
|-O L'utente sta sbadigliando o russando.
@-'-,---- L'utente regala una rosa.
Smiley orientali
Questi smiley, di origine giapponese, non richiedono di inclinare la testa di 90 gradi.
*^_^*
Sorriso radioso
T_T L'utente sta piangendo.
@^_^@ L'utente sta arrossendo.
Appendice IV - Storia della rete
Anni 60
Il 4 ottobre del 1957 l'URSS aveva messo in orbita lo Sputnik, il primo satellite artificiale della storia, una sfera dal metro di diametro. Grosso affronto per gli USA. Un satellite avrebbe potuto trasmettere informazioni velocemente e avrebbe potuto spiare. La contro-mossa statunitense fu quella di avviare un progetto di comunicazione avanzata: ARPA (Advanced Research Project Agency) organo del Ministero della Difesa che avrebbe dovuto ripri-stinare la supremazie americana in campo tecnologico. Il progetto diventerà Internet. L'ossessione più ricorrente era la domanda: 'Come resistere ad un attacco nucleare'. Infatti sarebbe bastato far saltare la rete di comunicazione per mettere in ginocchio tutta la nazione. Nel brain trust che si formò la Rand Corporation, Paul Baran presentò il rapporto On Distributed Communications Networks (1962), dove si proponeva che la rete che collegava i vari centri nevralgici della nazione non dovevano avere alcuna autorità centrale. Ogni nodo sarebbe dovuto essere indipendente in maniera che, colpendo un nodo, la rete non sarebbe collassata. Nel 1968 inizia la sperimentazione e nell'autunno del 69 viene inaugurato il primo nodo che è fisicamente ubicato presso la UCLA (University of California Los Angeles). In seguito vengono piazzati altri 3 nodi in altre università. L'embrione della rete è nato e si chiama Arpanet, utilizzata solo da professori e ricercatori (ognuno ha un proprio identificativo di posta elettronica). Nasce anche la prima mailing list non solo lavorativa: SF lovers.
Anni 70
I calcolatori, sia pure con sistemi operativi diversi, per comunicare devono parlare uno stesso linguaggio: quello che si basa sul packet-switching. Questo linguaggio raggiunge la piena maturità solo nel 1982 grazie a Vinton Cerf e Bob Khan e alla definizione del TCP/IP (Transmission Control Protocol/ Internet Protocol).
Il Transmission Control Protocol spezzetta i messaggi in diversi pacchetti e li riassem-bla ordinatamente una volta arrivati a destinazione. L'Internet Protocol ha invece la responsabilità dell'indirizzamento delle singole porzioni di dati nella rete. Nel '73. nasce anche il protocollo per il trasferimento dei dati: FTP (File Transfer Protocol). Questo protocollo inizia ad essere utilizzato per l'invio di semplici files di testo con messaggi personali, quella che sarà la posta elettronica. La quantità di files inviati diviene grandissima e nel 1977 nasce la necessità di costituire un protocollo esclusivamente per la posta elettronica (e-mail). Nel 79 aumenta l'uso civile della rete, nascono infatti Usenet (è la prima zona della rete che raccoglie i newsgroup) ed i primi Mud (Multi User Dungeon, i popolarissimi giochi di ruolo elettronici con più utenti simultanei.
Anni 80
Nascono la popolare rete universitaria BitNet; la francese Minitel; la rete Fidonet (una rete mondiale di personal collegati via modem, usata per le banche dati, le BBS, che assieme a BitNet e altri network costituiscono Outernet, parallela alla cosiddetta Core Internet). L'originaria vocazione militare di Arpanet viene raccolta nel 1983 dalla rete militare Milnet.
Vengono formulati in questi anni i primi postulati dell'Era Digitale:
La legge di Moore (da Gordon Moore, fondatore della Intel) sostiene che la potenza di calcolo e la capacità dei computer raddoppia ogni diciotto mesi.
La legge di Metcalfe (da Bob Metcalfe, l'inventore del protocollo Ethernet per la comunica-zione locale tra computer) dice che il valore di una rete è all'incirca proporzionale al quadrato del numero degli utilizzatori.
Il 1984 è un anno memorabile. Nasce il Macintosh della Apple, il primo personal computer ad interfaccia grafica: una vera e propria rivoluzione. Lo scrittore William Gibson dà alle stampe Neuromante (Neuromancer) da cui è stato tratto il termine cyberspace. La National Science Foundation capisce l'importanza della rete e mette a disposizione con un atto storico numerosi fondi e mezzi per le infrastrutture e per ricerche avanzate sull'utilizzo della rete.
La NsfNet (1986) che nasce dalla National Science Foundation, cioè il settore dedicato al network, collega computer dell'ultima generazione attraverso una dorsale (backbone) ad alta velocità.
Nel 1988 ci sono le prime prove generali di terrorismo telematico: il 'virus di Morris', diffuso in rete dal cracker Robert T. Morris, colpisce circa 6000 PC sui 60000 collegati (1 su 10).
Molte reti, come FidoNet, convergono in Internet. Nel 1989 muore ufficialmente Arpanet, ma ormai dilaga il TCP/IP ed anche l'Italia è collegata a NsfNet.
Anni 90
Lo statuto di cittadino elettronico prevede diritti e doveri: negli USA nasce la EFF (Electronic Frontier Foundation), che si occupa di cyber-right, cioè di giurisprudenza sulla rete. Di pari passo aumenta il caos in rete. Spuntano software per la ricerca di informazione: Archie, Wais (Wide Area Information Server). Nascono Gopher, primo tentativo di razionalizzare l'architettura dell'informazione, e Pgp (Pretty Good Privacy), per garantire la sicurezza dei messaggi scambiati.
Internet diventa di massa nel 1993. Nasce il primo browser Mosaic, e come afferma Economist 'a Internet spuntano le ali multimediali'. Il WWW è l'architettura ipertestuale/ipermediale della rete concepita al CERN di Ginevra dall'équipe guidata da Tim Berners-Lee che vi lavora dal 1989. Esplode il traffico (+300%). 'Ora anche un analfabeta informatico può diventare un cybenauta'.
Il 9 agosto del 1995 alla prima quotazione a Wall Street, la Netscape di Marc Andreessen realizza un risultato da record, quasi come quello della Apple nel 1984.
Il 1996 è definito anno III p. M. (post Mosaic).
Si sviluppano VRML (Virtual Reality Modelling Language) e Java (che svolge operazioni grazie a piccoli programmi chiamati applets) della Sun Microsystem. In questi anni viene inventato il Network Computer, strumento da $500 dedicato completamente alla navigazione, che però non ha ancora avuto il successo aspettato, a causa dei costi telefonici. Nel 1997 in rete si utilizza WebPhone, un sistema per la telefonia via rete, e WebTV; le grandi multinazionali della telefonia e della televisioni entrano in crisi, iniziano le grandi fusioni internazionali.
Gli indirizzi di dominio per il Web, risultano essere limitati, a causa di una previsione errata nella progettazione. Inoltre il vecchio Web ha grossi deficit nella sicurezza. Si progetta così il web 2 (www2), non per l'utilizzazione privata, ma per grandi banche e grandi sistemi gestionali. La necessita del Web 2 è dovuta anche al diffondersi in rete dell'e-commerce, il sistema di vendita elettronica, che catalizza la discussione nell'ultimo anno.
Alla fine del millennio il problema più grande dei grandi sistemi informatici collegati fra di loro sembra è un 'errore' di programmazione fatto sulla numerazione delle date. Quando si è iniziata la programmazione il problema principale era risparmiare spazio. Per questo la data è stata composta di sei cifre due per il giorno, due per il mese, ma due anche per l'anno. Le date servivano principalmente ordinare le operazioni fatte nei grandi data base (banche dati) e venivano ordinate al contrario (anno/mese/giorno) per costituire un ordine numerale quantitativo, più facilmente ordinabile. Es. 11 novembre 1996 e 31 settembre 1995; se utilizzo sei cifre al contrario risulteranno rispettivamente 961111 e 950931; messi in ordine di quantità crescente la data più recente risulterà essere la più grande. Ma se prendo il primo gennaio del 2000 (000101) e cerco di ordinarlo, questo risulterà più un numero piccolo di tutti e verrà quindi messo per ultimo. Nei calcoli per differenza dal 31 dicembre del 1999 al primo gennaio del 2000 risulteranno essere passati quasi 100 anni, creando così problemi a tutto il sistema. Questo è stato chiamato il virus del millennio o 'millennium bug', ed è la grande preoccupazione, ma anche il grande business, di fine millennio.
Privacy
|
© ePerTutti.com : tutti i diritti riservati
:::::
Condizioni Generali - Invia - Contatta