Tu sei qui

Informazione

Anno di redazione: 
2002
Eugenio Sarti

I. Aspetti terminologici - II. La codifica dell'informazione - III. L'informazione nel mondo tecnologico, biologico e fisico: risonanze transdisciplinari - IV. La teoria dell'informazione - V. L'informatica - VI. La telematica e Internet - VII. La società dell'informazione - VIII. L'informazione nella riflessione della teologia.

Termini come "informare", "informazione", "forma" e "formulazione" sono di uso frequente sia nel linguaggio quotidiano contemporaneo, sia in quello filosofico classico e moderno, sia in quello tecnico, attualissimo, legato al mondo dei computer, della comunicazione e della logica. Data la loro versatilità d'impiego, inizieremo, necessariamente, con un'analisi di questi termini per chiarire via via l'uso che ne faremo nel corso della nostra trattazione.

La parola «informare» significa, nell'accezione più comune, trasmettere una conoscenza, «ragguagliare qualcuno trasmettendogli notizie, dati e simili» (N. Zingarelli, Vocabolario della lingua italiana, Bologna 1986). A questo termine è sottesa una frequente intonazione pratica, in quanto chi informa si aspetta che l'interlocutore utilizzi l'informazione ricevuta e modifichi, di conseguenza, il suo comportamento; mentre per le conoscenze non elettivamente dotate di efficacia pratica si preferiscono altri termini, come "spiegare", "descrivere", "insegnare". Questa intonazione pratica sembra collegarsi al significato originario della parola, che si può rendere con l'espressione "modellare secondo una forma". Infatti «informare» deriva da «forma» (lat. in-formare, cioè «dare forma»). C'è dunque in essa un originario valore "operativo": l'informazione - intesa come azione dell'informare - produce una forma. Oggi questo valore è certamente attenuato, ma non del tutto abbandonato, e talvolta relegato al linguaggio colto: si dice, per esempio, «informare la propria condotta a valori morali». Tuttavia questo accento pratico non è esclusivo, perché l'informazione è alla radice di ogni "trasmissione di conoscenza", anche in senso teorico: noi impariamo in quanto siamo informati; l'informazione è dunque un veicolo di conoscenza. Vediamo ora un poco più a fondo il significato di queste due parole, «forma» e «informazione».

Il campo semantico del termine «forma» è assai ampio. Come messo in luce dai vari Dizionari, esso conosce specifici usi in innumerevoli discipline quali la biologia, la geografia, la cristallografia, la botanica, l'elettrotecnica, la matematica, la meteorologia, la scienza delle costruzioni, nonché le molteplici accezioni che appartengono all'ambito del linguaggio. Si mette tuttavia in rilievo l'originario significato filosofico della parola, definita in riferimento al greco morphé: «l'aspetto di un oggetto, sufficiente a caratterizzarlo esteriormente; in filosofia, principio attivo di distinzione dell'essenza, dinamicamente contrapposto a materia» (G. Devoto, G. Oli, Il dizionario della lingua italiana, Firenze 1990). Nel contesto filosofico classico (soprattutto aristotelico) la forma era normalmente correlata alla materia: il rapporto è quello che intercorre fra potenzialità e attualità, un po' come l'argilla quando assume la forma di mattone, ad opera di un agente esterno che fa passare il mattone da uno stato potenziale (argilla informe) allo stato attuale (argilla in forma di mattone).

Per quanto riguarda la parola «informazione», il lessico italiano ne mette in evidenza i due aspetti principali già contenuti nei vocaboli "informare" e "forma". Il primo è «atto che consiste nel dare a un essere la forma sostanziale, la vita vegetativa, sensitiva o intellettiva; atto che lo determina nella sua natura, che lo fa passare dalla potenza all'atto» (Battaglia, Dizionario della lingua italiana, Torino 1975). In questo senso informazione è "attualizzazione" della materia-potenza, è ciò che lega la materia alla forma nel senso visto poc'anzi. Ma vi leggiamo anche il secondo significato: «atto con cui si danno o si ricevono notizie; conoscenza, nozione» (cfr. ibidem). Si è già rilevato che è proprio questa accezione ad essere oggi, indiscutibilmente, la più comune e immediata. È interessante notare come entrambi i significati, nel quadro della filosofia aristotelico-tomistica classica, fossero tra loro strettamente legati: infatti se, nel primo senso, la forma attua la materia (potenza) dando adito alle cose del mondo fisico, nel secondo senso la forma, in quanto intelligibile, attua l'intelletto (potenziale), dando adito alla conoscenza. Nel linguaggio odierno sono rimasti solo dei residui legami con questi significati originari, ma noi vedremo, procedendo per gradi, come essi vadano ritrovando spazio nella nostra cultura, principalmente per merito dalla ricerca scientifica e tecnologica avanzate.

C'è un secondo legame tra informazione e forma: per essere trasmessa, l'informazione deve, infatti, essere "formulata" (si accede così ad un nuovo concetto, quello di «formulazione»), cioè fissata in un "codice condiviso" fra trasmittente e ricevente. La parola «codice» (con le sue parole derivate codifica e codificare) è importante. Non la s'intende, qui - ovviamente - nel significato usuale di "insieme organico di leggi", quanto piuttosto nel significato ormai altrettanto comune di «sistema di segnali, o di segni, o di simboli, che per convenzione preliminare è destinato a rappresentare e a trasmettere l'informazione tra la fonte (emittente) dei segnali e il punto di destinazione (ricevente)» (Codice, in N. Zingarelli, Vocabolario della lingua italiana, cit.). Si tratta dunque di rivestire l'informazione di una "forma" riconoscibile dal ricevente. Tale è, per esempio, il linguaggio naturale fra persone che conoscono la medesima lingua: la forma è costituita dalle parole e dai costrutti grammaticali e sintattici, e dalla loro "codifica" in suoni nella trasmissione vocale, in simboli grafici in quella scritta. Tali sono anche i linguaggi scientifici, e in particolare il linguaggio matematico che nella tecnica, e in parte delle scienze della natura (le scienze "matematizzate"), occupa una posizione di assoluta predominanza.

Il linguaggio scientifico mette in evidenza un altro problema di condivisione, che peraltro esiste anche nella pratica comune: si tratta del "contesto" nel quale si colloca l'informazione, ossia il patrimonio di conoscenze pregresse alle quali l'informazione fa implicitamente appello, che deve essere già noto al ricevente come a colui che trasmette. Dunque l'informazione, per essere recepita, deve essere situata all'interno di un adeguato tessuto di conoscenze: sicché la struttura formale, nella quale si deve collocare l'informazione affinché possa essere recepita, può essere molto complessa.

Esiste dunque un doppio legame fra informazione e forma: l'informazione può trasmettere forma, ma deve essere codificata, a sua volta, in una forma. L'informazione "formante" contiene, codificata, la "forma" che essa darà alla materia. Ma d'altra parte il codice è esso stesso forma: la codifica "riveste" l'informazione di una forma, e questa forma rappresenta la forma che sarà data alla materia ricevente. Dunque l'informazione stabilisce un rapporto fra due forme, delle quali l'una "significa" l'altra; essa contiene una forma, e in una forma è a sua volta contenuta: la relazione informazione-forma è una relazione di circolarità. Ma c'è di più: se guardiamo al codice che rappresenta e trasporta l'informazione, troviamo che anch'esso, in quanto forma, attua un'informazione a sua volta contenuta in un codice di livello superiore, più generale e sintetico: possiamo pensare, per esempio, alla sintassi con cui è codificato il codice genetico, o a quella della lingua italiana di questo testo. E così via, per cui si può vedere il tutto come una grande architettura in cui informazione e forma sono stratificate su livelli via via più alti. E ciascuna forma funge, in qualche modo, da archetipo (o analogato di grado superiore) per le forme di livello inferiore, sicché l'intera realtà appare organizzata secondo un ordine verticale, una gerarchia di forme che, almeno per analogia, rispecchia l'ordine gerarchico delle creature.

 

II. La codifica dell'informazione

L'informazione in sé si presenta come qualcosa di immateriale, ma necessita di supporti materiali per viaggiare ed essere conservata. La memorizzazione dell'informazione su supporti tecnici, e la sua trasmissione a distanza, hanno posto problemi di codifica che vale la pena esplorare un poco. Fino alla metà dell'Ottocento i modi quasi esclusivi per trasmettere informazioni erano la voce e la scrittura. Nella trasmissione vocale i concetti sono codificati in parole e costrutti grammaticali e sintattici, e questi sono tradotti in suoni intelligibili dal ricevente: la codifica e la decodifica avvengono a livello cerebrale. Nella trasmissione scritta avviene qualcosa di più: i suoni delle parole sono rappresentati con simboli grafici e questi, con qualche mezzo tecnico, sono impressi sulla carta; chi riceve, poi, deve saper leggere la scrittura. C'è dunque una doppia formalizzazione: del concetto in parole e delle parole in simboli grafici (per esempio l'alfabeto latino). Ed anche una doppia, almeno potenziale, impressione sul supporto materiale: una doppia "formazione" della materia, dapprima (almeno potenzialmente) in suono e poi in segni sulla carta.

Questa codifica multipla, a più livelli, diventa più complessa quando s'incomincia a trasmettere l'informazione a distanza, in generale con mezzi elettrici. Nella realizzazione originaria del telegrafo, un operatore chiude e apre un interruttore e così trascrive il messaggio, che ha ricevuto in forma scritta, in una successione di impulsi elettrici; questi impulsi viaggiano lungo un filo conduttore e, alla ricezione, azionano una macchina che li stampa su una striscia di carta. Un secondo operatore li legge e li trascrive in lettere dell'alfabeto, parole e frasi. C'è dunque una nuova fase di codifica e decodifica, che qui è ancora affidata a uomini: "specialisti" che nulla sanno del messaggio che stanno trasmettendo, ma sanno scrivere nell'alfabeto di impulsi idonei a viaggiare sui fili elettrici; il quale alfabeto, invece, probabilmente è indecifrabile per chi ha generato il messaggio e per chi lo riceve.

È interessante osservare che questa codifica a impulsi è tipicamente "binaria", non diversamente da quella che sarà usata, un secolo più tardi, negli elaboratori elettronici e poi in gran parte dei sistemi di telecomunicazione: nell'alfabeto Morse ogni lettera dell'alfabeto è rappresentata da una successione ordinata di due simboli elementari: il punto e la linea, un impulso breve e uno lungo. Ma anche i telegrafi ottici, usati fin dall'antichità soprattutto a scopi militari, usavano codici formati da due soli simboli (luce-buio, fumo-non fumo), o da pochissimi: sicché la codifica binaria, di cui la nostra tecnica mena vanto come di un geniale ritrovato, in verità non è invenzione recente, ma risale ai nostri lontani antenati.

Nel telefono avviene un processo differente: le variazioni di pressione delle onde sonore, emesse dalla voce, sono tradotte dalla membrana del microfono in variazioni di corrente elettrica e queste, a loro volta, sono trasformate in variazioni di pressione dalla membrana del dispositivo ricevente (che si chiama propriamente «telefono»). Le variazioni della corrente sono proporzionali alle variazioni di pressione: con una piccola, legittima forzatura del significato delle parole si può parlare di «codifica analogica», nel senso che il profilo di variazione della corrente è "analogo" a quello della pressione atmosferica prodotta dall'emissione di voce. Nemmeno in questo caso il prodotto della codifica è in sé intelligibile per chi trasmette e chi riceve (anzi, non è nemmeno percepibile dai sensi); ma qui esso non è generato da un operatore umano bensì da una macchina. Notiamo per inciso che questa stessa codifica analogica è usata nelle registrazioni su disco (dischi di vinile) e su nastro magnetico: la forma d'onda del suono è riprodotta in quella di un solco nel primo caso, nel livello di magnetizzazione di uno strato di ossidi di ferro nel secondo.

Nelle trasmissioni radio e televisive s'introduce un'ulteriore codifica: la «modulazione». Per essere diffuso dalle antenne, il messaggio deve essere "portato" da un'onda elettromagnetica ad alta frequenza; perciò un circuito elettronico genera un segnale (un'onda di ampiezza costante) di caratteristiche adatte alla trasmissione, e poi questo viene modificato al fine di rappresentare l'informazione originaria. Dunque in questo caso si ha una sequenza di codifiche, che per esempio si potrebbe schematizzare così: Informazione da trasmettere → Emissione vocale → Conversione in segnale elettrico (microfono) → Modulazione (e trasmissione) → (Ricezione e) demodulazione → Riproduzione acustica (altoparlante) → Captazione dall'orecchio del ricevente → Informazione ricevuta. In ciascuno di questi stadi una materia diversa - le corde vocali, l'aria, la corrente nel microfono, le onde elettromagnetiche ecc. -, è "formata" in una forma diversa, e tutte le forme rappresentano la medesima informazione; ma soltanto le estreme sono percepibili e significanti per colui che trasmette e riceve: in mezzo c'è una "zona grigia" in cui l'informazione è come celata in forme interdette alla percezione. Dunque la tecnica inserisce nel processo un elemento irrimediabilmente artificiale, non-umano: diverso da quello che fa la tecnica della stampa, nella quale chiunque sappia leggere può decifrare il messaggio, essere informato.

Negli elaboratori elettronici avviene qualcosa di diverso dal telefono e dai dischi, e più simile, se mai, al telegrafo. Tutta l'informazione, qualunque sia il suo genere - parola di un messaggio verbale, segno d'interpunzione, numero o simbolo d'operazione matematica; ma anche segno grafico o nota musicale - è trattata allo stesso modo: essa è codificata in una sequenza di bit, ossia di enti elementari che possono essere soltanto "0" oppure "1". Il codice ASCII, che è molto usato per i testi, utilizza sequenze di otto bit (1 byte) per rappresentare le lettere dell'alfabeto, i numeri, i segni d'interpunzione e un certo numero di simboli e segni grafici: la lettera A maiuscola, per esempio, è rappresentata dalla sequenza 01000001, mentre la a minuscola dalla sequenza 0110001. Le figure possono essere codificate in vari modi: quello concettualmente più semplice (anche se molto oneroso quanto al numero di bit che occorre impiegare) consiste nel suddividere la figura in un gran numero di areole elementari, e attribuire a ciascuna una "parola" formata da tanti bit quanti servono a individuare la sfumatura di colore e l'intensità luminosa.

I bit sono poi trasformati in impulsi elettrici che circolano nei circuiti dell'elaboratore: esso può modificare la loro sequenza eseguendo su di essi delle operazioni - per esempio, se essi rappresentano grandezze matematiche - oppure conservarla stabilmente, come punti magnetizzati, nella "memoria"(vedi infra, V). Altre volte sono trasmessi a distanza su cavi elettrici o fibre ottiche, o convertiti in onde elettromagnetiche e irradiati. O ancora diventano microscopici forellini sulla faccia inferiore di un CD, un compact disc che un lettore ottico converte in musica o, di nuovo, in programmi per elaboratore.

A causa del fatto che l'elemento base della codifica, il bit, può assumere soltanto due valori, questa codifica è detta «binaria». Con un anglicismo si dice anche «codifica digitale» (digit, in inglese, è il numero, la cifra: nel nostro caso la cifra "0" oppure "1"). Adottata dapprima per gli elaboratori numerici (detti «calcolatori digitali»), essa si sta ora diffondendo in tutti i settori della tecnica di elaborazione e trasmissione dell'informazione, in cui sostituisce la codifica che abbiamo chiamato «analogica». Accade così che i CD hanno sostituito i dischi di vinile; sempre più spesso, nelle comunicazioni telefoniche, le inflessioni della nostra voce sono codificate in sequenze di bit; anche la televisione, ultimo grande settore in cui sopravvive la codifica analogica, incomincia a convertirsi alla forma digitale.

La ragione di ciò è semplice, ed è bene esemplificata dai CD, oggetti molto più piccoli dei dischi di vinile i quali, tuttavia, consentono una qualità di riproduzione molto migliore. Essi trasmettono una banda di frequenze più larga, senza fruscio e con una "dinamica" più ampia, ossia con una maggior differenza di livello acustico fra i "pianissimo" e i "fortissimo". Questa migliore qualità dell'informazione digitale dipende da un fatto non banale: una volta codificata in forma digitale, l'informazione è, in certo senso, indistruttibile. L'informazione analogica è soggetta a deterioramento: se, mentre si telefona, sopravviene qualche disturbo (sulla linea telefonica o nell'ambiente a noi circostante) si perde qualche parola e il significato di ciò che s'ascolta è in parte perduto; se il disco analogico è graffiato la qualità dell'ascolto è compromessa. Questo non accade se l'informazione è "digitalizzata": si vedrà più avanti che è sempre possibile codificare l'informazione in modo da renderla immune dai disturbi. Si può elaborare e trasmettere l'informazione in maniera "perfetta": una volta digitalizzata, l'informazione partecipa della "perfezione del numero", la perfezione propria delle matematiche. La codifica digitale introduce, in qualche modo, una perfezione nel mondo della tecnica.

  

III. L'informazione nel mondo tecnologico, biologico e fisico: risonanze transdisciplinari

In quanto trasmissione di conoscenza, l'informazione è stata intesa, primariamente, come attività propria di soggetti capaci e consapevoli di conoscere. La lista dei soggetti dell'informazione si è però progressivamente allungata, sollevando notevoli problemi circa il rapporto fra informazione e conoscenza, fino a rendere problematico, talvolta, il significato stesso della parola "conoscenza". Esploriamo dunque questi ampliamenti, per menzionare infine alcune risonanze dell'informazione in campo filosofico.

1. L'informazione nell'ambito del rapporto fra l'uomo e la macchina. È facile osservare che la tecnica si è oggi impadronita del concetto di informazione, fino a farlo diventare il suo elemento caratteristico. Dapprima lo strumento tecnico è stato visto soltanto come mezzo di trasmissione dell'informazione fra uomini, ma successivamente si è cominciato a parlare di informazione anche per la comunicazione fra l'uomo e la macchina: il progettista e il tecnico della produzione comunicano alla macchina utensile automatica le informazioni relative alla lavorazione di un pezzo: diciamo, per esempio, una pala di turbina. È interessante osservare come qui, nell'attività tecnica e nel ruolo che in essa ha l'informazione, si possano ritrovare le quattro cause aristoteliche: l'informazione contiene, come s'è già notato, la "causa formale"; e contiene anche i comandi che saranno impartiti alla macchina, ossia la "causa efficiente" che, applicata al metallo da tagliare (la "causa materiale") realizza l'oggetto artificiale. Il ruolo della "causa finale" comparirebbe se ci si chiedesse, ad esempio, quale fine si proponga il tecnico quando egli realizza quella pala di turbina, se sia esso la produzione di energia elettrica, la propulsione di un aereo o altro, e quale sia poi il fine cui è destinato quell'aereo. Ma non occorre pensare alle macchine a controllo numerico, che costituiscono soltanto un esempio forse estremo: ogni progetto tecnico, anche su carta, contiene tutta l'informazione necessaria alla produzione dell'oggetto. In questo modo anche la tecnica recupera il significato originario della parola informazione, ossia «ciò che dà forma»: l'informazione inerente al processo costruttivo dà forma all'oggetto costruito.

Nell'ambito dell'ingegneria dell'informazione si deve riconoscere che, con lo sviluppo della tecnica informatica, la parola informazione è stata riferita anche alla comunicazione fra macchina e macchina. Dapprima la scienza dell'informazione, e adesso l'ingegneria dell'informazione (ovvero ciò che appunto designiamo, nel complesso, col nome di «informatica»), concernono le informazioni circolanti all'interno degli elaboratori e fra elaboratori collegati in rete. A questo punto, se si trascurasse il fatto che gli elaboratori elaborano la conoscenza degli uomini - dato spesso trascurato, ma tutt'altro che secondario - sembrerebbe perduta l'equivalenza informazione-conoscenza. Coloro che si occupano di intelligenza artificiale tendono a parlare di "conoscenza" anche per le macchine, senza più riferimento all'operatore che le impiega, ma rimane, comunque, anche in tal caso il quesito se si possa parlare in senso proprio e non solo metaforico di una "conoscenza intelligente", cosa che sembrerebbe però esclusa dall'irriducibilità del rapporto fra semantica e sintassi (cfr. infra, IV).

2. L'informazione nel mondo vivente e l'informazione genetica. L'informazione circola non solo nel mondo degli esseri umani, ma anche nel mondo animale, e addirittura in quello vegetale. L'etologia ha mostrato che gli animali comunicano fra loro, scambiandosi informazioni utili alla vita del gruppo o alla difesa da aggressioni altrui. Sono messaggi scambiati fra animali della stessa specie, o inviati ad animali di specie diversa che sono in grado di comprenderli e di sviluppare un comportamento corrispondente. Qualcosa di simile accade anche nella comunicazione tra gli animali e l'uomo: si pensi ad alcune forme di "dialogo", talvolta molto raffinato e sensibile, con gli animali domestici. La comunicazione fra gli animali coinvolge spesso uno scambio di informazioni molto complesse: l'ape che ha scoperto una fonte di cibo, ad esempio, descrive con la sua "danza" alle compagne la topografia del luogo verso cui dirigersi.

Un ampliamento semantico del concetto e delle proprietà dell'informazione, di estremo interesse, riguarda oggi la biologia. Si è scoperto che la vita di ogni organismo, semplice o complesso che sia, dipende in modo essenziale dalla circolazione di segnali biochimici, neuroelettrici e forse d'altra specie, che trasmettono le informazioni necessarie all'armonioso svolgersi dei processi vitali: lo studioso tende a vedere l'organismo vivente come uno sterminato laboratorio chimico da un lato, e dall'altro come una complicatissima rete di trasmissione delle informazioni necessarie al suo funzionamento. Ma, in questo senso, ancora più incisiva è la scoperta dell'informazione genetica, che presiede alla formazione dei nuovi organismi. Questa scoperta del ruolo dell'informazione nel mantenimento e nella trasmissione della vita è stata, per la biologia, una grande conquista, perché le ha permesso di passare dalla pura descrizione dei fenomeni all'analisi del modo in cui questi si producono. Compaiono qui due aspetti importanti; il primo è che l'informazione presiede alla formazione di nuovi organismi, ossia essa "dà", "comunica" forma (ritroviamo il collegamento fra i due significati della parola: "dare forma" e "comunicare"); il secondo, è che essa presiede all'ordinato svolgimento dei processi vitali, ossia l'informazione svolge un ruolo di "ordinatrice": certe malattie, ad esempio, che noi percepiamo come "disordini patologici", sono dovute ad un'errata lettura di informazioni.

La presenza di informazioni e di scambi di informazioni necessari ai processi funzionali degli organismi viventi pare essere in stretto collegamento con quella proprietà unica della vita che riguarda la sua tendenza a conservarsi e a riprodursi. La vita è sede di un finalismo intrinseco alla natura, in cui l'informazione gioca un ruolo decisivo, regolando processi di coordinamento e di direzionalità. La vita sembra così essere sede di "informazione" a più livelli. In primo luogo a livello del singolo individuo vivente, la cui specificità all'interno dell'ambiente e degli elementi biologici, chimici o fisici che ne rendono possibile l'esistenza, è depositaria di una particolare "forma", quella cioè che dà unità e significato al soggetto vivente; in secondo luogo, a livello del complesso di informazioni codificate che assicurerà al soggetto tutto il necessario per svolgere le sue funzioni vitali, facendone il punto di riferimento finale del loro coordinamento reciproco e in rapporto con le altre informazioni provenienti dall'ambiente.

3. La presenza di informazione nell'universo fisico: informazione e leggi naturali. Un'ulteriore estensione transdisciplinare del concetto di informazione, sebbene di carattere alquanto diverso, è dovuta alle scienze fisiche e chimiche. In questo caso la "comunicazione" non avviene tra organismi viventi, né tra l'uomo e il frutto del proprio ingegno tecnologico nel quale egli ha inserito un linguaggio automatico, bensì tra il mondo non vivente e l'uomo. Il ricercatore acquisisce una certa conoscenza del mondo fisico grazie alle informazioni che egli trova in qualche modo codificate nella natura, sotto forma di proprietà o di leggi. Abbiamo qui, dunque, un modo diverso d'intendere l'informazione, che non proviene più da un soggetto attivo, ma è estratta, per così dire, dall'oggetto studiato da parte del soggetto che lo studia. Se è vero che il ricercatore "impone la sua forma" nella natura attraverso la matematizzazione delle "leggi scientifiche", è anche vero che la sua conoscenza "viene informata" dalle "leggi di natura" e da quelle proprietà oggettive e indipendenti dal soggetto, che rendono possibile la loro successiva formulazione attraverso costanti numeriche o algoritmi scientifici. Nella sua attività conoscitiva, il ricercatore può imporre la sua forma non solo mediante algoritmi matematici, ma anche attraverso "modelli", dei quali chiederà successivamente una verifica all'esperienza. Il ruolo della modellizzazione è stato piuttosto importante, fra l'altro, nell'ambito della chimica, dove ha permesso di rappresentare e poi di cogliere delle forme non deducibili dall'ambito fisico, perché depositarie di proprietà e di informazioni che emergevano solo valutando la struttura molecolare od il composto nel suo insieme, come un nuovo oggetto di studio.

Il crescente interesse nel considerare l'attività dello scienziato come estrazione di un certo tipo di informazione contenuta nella natura è testimoniato dal dibattito contemporaneo sull'intelligibilità delle leggi naturali e sul significato delle costanti di natura. Alcuni hanno coniato l'espressione «codice cosmico» per riferirsi all'alto grado di sintonia esistente fra le leggi che descrivono i principali fenomeni fisici, specie in merito al loro delicato coordinamento che consente l'esistenza dell'universo stesso e, in esso, di una nicchia chimica e biologica adeguata ad ospitarvi la vita. Ma in linea assai più generale, e prescindendo per il momento dal significato filosofico che si possa associare all'intelligibilità delle leggi naturali o al loro coordinamento, resta il fatto indubitabile che l'universo non è composto solo di materia ed energia, ma anche di informazione. In altre parole, l'universo fisico non è qualcosa di indeterminato o indeterminabile, ma esiste con delle proprietà specifiche, cioè trasporta con sé una certa informazione. Anche in questo caso ritroviamo i significati originari del termine: l'informazione è ciò che dà forma alla materia-energia ed è anche ciò che rende il mondo materiale conoscibile, intelligibile; e lo studioso può esplorare il mondo naturale dandogli, a sua volta, la forma delle leggi con cui lo descrive, il cui progressivo miglioramento sarà però guidato dalle forme che egli riceverà dalla natura stessa.

4. Sguardo riassuntivo. Dalle osservazioni precedenti e dal diversificato elenco di significati che il concetto di informazione evoca, emergono alcuni importanti rapporti. Il primo è il rapporto di circolarità esistente fra informazione e ordine. In quanto "formante" l'informazione produce ordine: l'organismo prodotto dal codice genetico appare come un sistema "ordinato" di tessuti e processi vitali; e anzi le alterazioni biologiche, e specialmente quelle che definiamo come malattie, sono percepite come "disordine". Ma l'informazione è anche "descritta" da un ordine: le leggi presenti in natura descrivono l'ordine dell'universo. Se questo ordine, inteso come coordinamento fra le parti - o, se si desidera, come progettualità -, fosse qualcosa di originario, allora esso manifesterebbe la "presenza di una informazione", cioè si rivelerebbe come produttore di informazione. Un secondo rapporto è quello che fa accedere in modo più esplicito alla nozione di finalità. In sintonia con il primitivo pensiero aristotelico, ove la causa formale e la causa finale sono in stretto collegamento fra loro, l'esistenza di una "formalità", cioè di una informazione, nell'universo fisico o biologico rimanderebbe all'esistenza anche di una "finalità". In quanto "trasporto di informazione", e alla luce della relazione fra informazione e conoscenza, tale finalità sarebbe adeguata ad essere conosciuta (o riconosciuta) dall'essere umano, analogamente alle informazioni di cui egli è soggetto e produttore.

  

IV. La teoria dell'informazione

Quando, sul finire degli anni Quaranta, si avvertì il bisogno di dare un ordine e una base scientifica alle tecnologie dell'informazione, che erano state sviluppate tumultuosamente durante la seconda guerra mondiale, fu necessario stabilire un modo per misurare la "quantità d'informazione". Operazione necessaria ancorché alquanto discutibile, dato che l'informazione appare come qualcosa di essenzialmente qualitativo e in certi casi soggettivo (una notizia rappresenta un incremento di informazione solo per quanti ancora non abbiano conoscenza di ciò che essa comunica).

Claude Shannon (1916-2001) propose nel 1948 una soluzione che, sebbene in modo molto sommario e schematico, teneva conto di questa necessità di rapportare l'informazione al soggetto che la riceve. Infatti legò la misura dell'informazione portata da un evento alla probabilità che l'evento aveva di verificarsi o meno. Se un evento è molto probabile, il fatto che avvenga non "ci dice" molto: non arricchisce apprezzabilmente la nostra conoscenza. Se invece quell'evento molto probabile non avviene (o avviene il suo contrario), ciò è causa di sorpresa e di riflessione: aumenta la nostra conoscenza, "ci informa" di più. La formula matematica adottata per misurare la quantità (o il contenuto) d'informazione è identica a quella che in termodinamica misura l'entropia, a meno di un cambiamento di segno. Per la misura della quantità d'informazione fu inizialmente proposto il termine «negentropia», che però non ebbe fortuna per comprensibili ragioni di eufonia. Per tale misura si adotta oggi più semplicemente il vocabolo «entropia», andando però incontro a qualche equivoco. La stessa parola significa, infatti, due cose opposte: in termodinamica un aumento dell'entropia equivale ad un aumento di disordine, mentre nella teoria dell'informazione esso indica un aumento di ordine. Ciò merita qualche spiegazione ulteriore. In un "sistema isolato" - ossia in un insieme di corpi senza scambi di energia con l'esterno - l'entropia termodinamica misura l'energia legata alla temperatura, ossia al moto disordinato degli atomi che lo compongono: il secondo principio della termodinamica dice che ogni trasformazione energetica implica un aumento dell'entropia, ossia del "disordine". Viceversa, s'è visto che il concetto di informazione è legato al concetto di ordine: l'informazione genetica, ad esempio, è portata dall'ordine in cui si succedono le "basi" lungo la doppia elica del DNA; in un messaggio codificato in forma binaria, per fare un altro esempio, l'informazione è data dall'ordine in cui si succedono i bit con valore "0" e "1". Una maggiore informazione, dunque, è rappresentata da un maggior grado di ordine: se durante la trasmissione di un messaggio qualche disturbo trasforma accidentalmente uno "0" in "1", o viceversa, simultaneamente si ha una riduzione di ordine e una perdita d'informazione, ossia una diminuzione dell'entropia del messaggio.

La corrispondenza fra l'entropia termodinamica e l'entropia dell'informazione non è soltanto formale: essa nasce dalla comprensione in termini di "informazione" che si dà, come abbiamo visto, anche alle strutture in cui è organizzato il mondo fisico. Basti qui un esempio. L'informazione della struttura cristallina di un cristallo di ghiaccio è rappresentata dalla posizione reciproca dei suoi atomi, ossia dal fatto che la loro agitazione termica è vincolata a svolgersi nell'intorno dei nodi d'un reticolo. Se si porta il ghiaccio a fusione, simultaneamente si distrugge l'informazione del reticolo - quindi si riduce l'entropia dell'informazione - e si aumenta l'agitazione termica - ossia l'entropia termodinamica.

La quantificazione dell'informazione e la trattazione matematica che ne è seguita (anch'essa dovuta, nei suoi fondamenti, a Shannon) permettono di risolvere alcuni problemi tecnici fondamentali, che s'incontrano quando si vuole trasmettere un messaggio su un certo supporto (un «canale», nel linguaggio tecnico). La velocità alla quale è possibile trasmettere i segnali, per esempio codificati in forma binaria, è limitata dalle caratteristiche tecniche del canale: una linea telefonica (un «doppino», come s'usa dire, perché è formata da due fili) può trasmettere un certo numero di bit al secondo e non di più; un ponte radio ne trasmette di più, e ancor più una fibra ottica, ma sempre in numero limitato. Fra i fattori che contribuiscono a produrre questo limite c'è la "rumorosità" del canale, ossia la probabilità che i "disturbi" - i medesimi che talvolta ascoltiamo al telefono, e rendono meno intelligibile ciò che l'interlocutore sta dicendo - trasformino qualche "1" in "0" o qualche "0" in "1". Gli errori aumentano con la velocità di trasmissione, e oltre una certa velocità possono essere irrimediabili: Shannon ha dimostrato che esiste una velocità limite teorica (che si chiama «capacità di trasmissione») al disotto della quale si è certi di poter correggere tutti gli errori introdotti dai disturbi, mentre al disopra di tale velocità ciò non è più sicuro.

D'altra parte è evidente l'interesse a trasmettere l'informazione alla massima velocità possibile: ciò produce, a parità d'informazione trasmessa, un risparmio nelle apparecchiature tecniche. Questo interesse diventa una necessità quando il ritmo con cui si deve trasmettere è predeterminato, come accade con le immagini televisive. Il problema ha due aspetti. Da un lato si tratta di non trasmettere più bit dello stretto necessario: non trasmettere bit "ridondanti", ossia superflui, che non contribuiscono all'informazione. Se si deve trasmettere una successione di dati, ciascuno indipendente da quelli che lo precedono, è ovvio che ciascun dato debba essere codificato con tutti i bit necessari per descriverlo. Ma spesso i dati dipendono uno dall'altro (si dice che sono correlati fra loro): nelle trasmissioni televisive, per esempio, il fatto che le immagini abbiano una certa estensione fa sì che ogni loro punto assomigli, in genere, ai punti circostanti. Allora non importa trasmettere tutta l'informazione relativa a ciascun punto, ma basta codificare la differenza dal punto precedente. Essa in generale è piccola, e dunque richiede pochi bit. D'altra parte si deve evitare che l'informazione risulti affetta da errori. Si tratta, dunque, di sfruttare al meglio la possibilità, mostrata da Shannon, di correggere gli errori purché la velocità non sia superiore alla capacità del canale. Per questo la teoria dell'informazione ha sviluppato raffinatissimi «codici a correzione d'errore» che permettono di avvicinare di molto la velocità di trasmissione al limite teorico della capacità di canale.

L'esempio dell'immagine televisiva consente di aggiungere qualcosa. Si sa che l'occhio umano è poco sensibile a talune caratteristiche dell'immagine, sicché esse possono essere trascurate senza che l'osservatore sia in grado di distinguere l'immagine compressa da quella originaria. Altrettanto si può dire dell'orecchio dell'ascoltatore delle trasmissioni musicali. In questi casi si può impunemente "comprimere" il messaggio, riducendo la sua quantità d'informazione. Evidentemente nulla di simile si può fare per i dati numerici, in quanto una perdita d'informazione può renderli inservibili. Dunque il modo in cui si codifica un messaggio dipende strettamente dalla sua natura, dal suo significato per chi lo riceve e dalla maniera in cui questi lo percepisce: ossia dalla sua "semantica". Questa è una limitazione fondamentale nella trasmissione dell'informazione, ma anche per la sua elaborazione, che nemmeno i sistemi di intelligenza artificiale possono superare: la trasmissione e l'elaborazione dell'informazione con mezzi tecnici concerne soltanto i suoi aspetti formali, "sintattici", mentre gli aspetti semantici non percorrono la catena ma s'arrestano al suo ingresso, e sono restituiti al messaggio da chi lo riceve e lo interpreta.

  

V. L'informatica

La parola «informatica» è un neologismo, coniato per assonanza con matematica e automatica. Informatica è la tecnica di costruzione ed utilizzazione dei calcolatori elettronici. Per naturale estensione, è anche la «scienza e tecnica dell'elaborazione dei dati e, genericamente, del trattamento automatico delle informazioni» (N. Zingarelli, Vocabolario della lingua italiana, Bologna 1976). In accordo con le finalità del presente contributo, vediamone alcune caratteristiche strutturali che possono ragionevolmente essere ritenute invarianti almeno nel prossimo futuro; il lettore interessato potrà trovare sulla stampa periodica d'informazione scientifica le notizie di carattere più contingente, concernenti in particolare gli aspetti quantitativi: la diffusione degli elaboratori nel mondo, le loro dimensioni e le loro velocità.

L'informatica, da un lato s'apparenta strettamente con la matematica applicata e con la teoria dell'informazione, dall'altro concerne gli elaboratori elettronici. Si può distinguere una «informatica teorica», che è la branca della matematica applicata che si occupa della teoria degli algoritmi («algoritmo» è una successione di operazioni capace di portare alla soluzione di un problema in un numero finito di passi), oltre che della teoria dei linguaggi formali e della teoria degli automi, di cui qui non ci occuperemo; una «informatica tecnica», che riguarda la costruzione degli elaboratori; una «informatica pratica», che studia il modo concreto in cui i problemi possono essere risolti sugli elaboratori utilizzando i vari linguaggi di programmazione ed altri programmi di utilità quali, per esempio, i sistemi operativi e i data base. Con due termini inglesi, che s'è rinunciato a tradurre, si chiama hardware l'oggetto proprio dell'informatica tecnica, software quello dell'informatica pratica. Hardware e software sono i componenti di ogni elaboratore elettronico.

Con il termine hardware si indica l'insieme dei circuiti elettronici e dei componenti elettromeccanici che costituiscono la struttura degli elaboratori. In ogni elaboratore, dai più piccoli calcolatori «palmari» (che stanno cioè sul palmo di una mano) ai grandi mainframe, si distinguono tre parti fondamentali: le unità di elaborazione, le unità di memoria, le unità di ingresso e uscita. Le unità di ingresso e uscita sono le più conosciute, in quanto costituiscono il collegamento fra l'operatore e la macchina: per l'ingresso, ossia l'immissione dei programmi e dei dati, si usano per esempio la tastiera, i dischetti magnetici (floppy disc), i CD-ROM, i dischi ottici; per l'uscita si dispone dello schermo, delle stampanti (ad aghi, laser, a getto d'inchiostro), ancora dei floppy disc e, nelle macchine dotate di «masterizzatore», dei CD-ROM. Fra gli elementi d'ingresso e uscita sono da annoverare anche le "porte", ossia i connettori per i cavi di collegamento ad altri elaboratori (le reti di calcolo, compresa Internet) e ad unità ausiliarie: per esempio le stampanti, nella maggior parte dei casi, sono separate fisicamente dall'elaboratore vero e proprio e collegate ad esso attraverso una «porta parallela» ad alta velocità di trasmissione.

Le unità di memoria conservano i dati e i programmi, e li rendono disponibili all'unità di elaborazione. Esse sono di diversi tipi. C'è prima di tutto una «memoria principale ad accesso diretto» (RAM: random access memory), dalla quale l'unità di elaborazione attinge direttamente i dati e alla quale li restituisce a elaborazione compiuta: essa deve avere una velocità di accesso (con la quale i dati sono letti e scritti) paragonabile con la velocità di elaborazione. Questo si può ottenere soltanto con circuiti elettronici che però sono relativamente costosi, e sono altresì "labili", ossia perdono l'informazione quando si spegne la macchina. Perciò occorre un secondo tipo di memoria, una «memoria di massa» di grande capacità e permanente, ossia capace di conservare i dati per un tempo illimitato, anche a calcolatore spento. Questo si ottiene, in generale, con la registrazione su supporti magnetici (dischi o più raramente nastri) i cui tempi di accesso, però, sono molto più lunghi. In questa memoria viene preventivamente registrata tutta l'informazione necessaria all'uso dell'elaboratore, dati e programmi: durante il funzionamento della macchina le informazioni sono trasferite, a blocchi e con un certo anticipo sul momento in cui saranno necessarie, dalla memoria di massa alla RAM; e da questa sono poi consegnate all'elaborazione. Esistono poi memorie a sola lettura (ROM: read only memory, e le loro derivate PROM, EPROM ed EEPROM che consentono una limitata possibilità di scrittura) usate per conservare stabilmente parti di programma essenziali per il funzionamento della macchina e destinate a restare immutate per tutta la sua vita. Infine, i dischetti e i CD-ROM, così come i nastri e dischi magnetici usati nei sistemi di maggiori dimensioni, possono anche essere considerati come dispositivi di memoria "esterni", da usare soprattutto come archivio dei dati e dei risultati che si vuol conservare senza ingombrare la memoria interna, ed anche proteggere dalle conseguenze di suoi malfunzionamenti (il backup dei dati importanti).

L'unità di elaborazione centrale (CPU: central processing unit) è infine il cuore della macchina; normalmente è contenuta in un microprocessore che ospita anche la RAM. Il microprocessore è un dispositivo di piccolissime dimensioni, che su una superficie di pochi millimetri quadrati raccoglie molti milioni di circuiti elementari. Questa estrema miniaturizzazione, ottenuta con raffinatissime tecniche di fotoincisione che si avviano a raggiungere i limiti imposti dalla struttura della materia, risponde non tanto a esigenze di spazio quanto di tempo: la velocità con la quale sono elaborati i dati è tale che i ritardi e le attenuazioni che il segnale subisce nel passare da un circuito all'altro non possono essere trascurati, e devono essere ridotti minimizzando la lunghezza dei collegamenti. I microprocessori sono largamente usati anche in applicazioni diverse dagli strumenti di calcolo veri e propri: sono realizzati con microprocessori specializzati molti degli automatismi che si trovano negli impianti industriali, nei mezzi di trasporto, nei sistemi di telecomunicazione, nell'elettronica di consumo, ecc.; sicché essi appaiono come uno degli strumenti fondamentali della "informatizzazione" della società, ossia della sua progressiva caratterizzazione come società dell'informazione.

Nel microprocessore tutte le operazioni - non solo le operazioni aritmetiche, ma anche le operazioni "logiche" che controllano, per esempio, l'ordine di esecuzione delle diverse parti dei programmi - risultano dalla ripetizione, un gran numero di volte, di tre (di fatto, poi, riducibili a due) operazioni elementari: "e", "o" e "non". Nella lingua inglese, che in pratica si usa sempre, si chiamano and, or e not; nelle espressioni matematiche si usa rappresentarle coi simboli ∧, / e ¬. Queste operazioni, definite simultaneamente, attorno alla metà dell'Ottocento, da George Boole (1815-1864), da cui proviene il nome «algebra booleana», e da Auguste De Morgan (1806-1871), costituiscono un sottocampo dell'algebra estremamente fertile, sia dal punto di vista concettuale sia da quello pratico. Si tratta di operazioni logiche, con le quali dedurre la "verità" o "falsità" di una proposizione da quella di altre proposizioni, intendendo qui il termine "verità" in senso puramente logico, ossia come risultato di regole di consequenzialità logica. Le operazioni si possono tradurre in termini di grandezze binarie se si attribuisce, per esempio, il valore 1 alla verità e 0 alla falsità. Allora le prime due operazioni mettono in relazione due variabili A e B con una terza variabile C: "C = A ∧ B" vuol dire che C vale 1 se A e B valgono entrambe 1, e altrimenti vale 0; "C = A / B" vuol dire, invece, che C vale 1 se almeno una delle due, A oppure B, vale 1, e vale invece 0 solo se entrambe valgono 0. "Non", infine, lega fra loro due sole variabili: "B = ¬ A" vuol dire che B vale 0 quando A vale 1, e 1 quando A vale 0. Tutto ciò che un elaboratore può fare, si può esprimere per mezzo di queste sole tre operazioni, ripetute ordinatamente un adeguato numero di volte.

Il funzionamento della CPU, e quindi dell'intero elaboratore, è «sincrono», ossia è governato da un orologio (che di solito è un oscillatore a quarzo) che stabilisce il ritmo delle operazioni; ed è «sequenziale», ossia le operazioni sono eseguite, in linea di principio, una alla volta. Per aumentare la velocità di elaborazione si introduce, è vero, un certo grado di parallelismo, affidato a più unità operanti simultaneamente. Nei grandi elaboratori per il calcolo scientifico il parallelismo può essere anche relativamente elevato, ma in questi "cervelli elettronici", come s'usa chiamarli con fantasiosa locuzione, non v'è mai nulla di paragonabile al cervello degli animali nel quale il parallelismo è totale, ossia esiste un numero grandissimo di unità di elaborazione (i neuroni) che funzionano contemporaneamente. Un'altra differenza fra gli elaboratori elettronici e il cervello animale è che nei primi le funzioni sono "specializzate", ossia un'unità si occupa dell'elaborazione, un'altra della memorizzazione, una terza della comunicazione con l'esterno; nel secondo, invece, le funzioni di elaborazione e memorizzazione, e in parte anche quelle di ingresso e uscita, sono distribuite nell'intera massa di neuroni.

Con il termine software si indica l'insieme dei programmi a disposizione dell'elaboratore. Si usa distinguere un «software di sistema», che rende possibile il suo funzionamento, da un «software applicativo» dedicato alla soluzione dei problemi o all'esecuzione dei compiti affidati all'elaboratore: svolgimento di calcoli matematici, gestione di archivi, stesura di testi, elaborazione di immagini grafiche e così via. Nel software di sistema una parte molto importante hanno i sistemi operativi, come il diffusissimo Windows: il sistema operativo viene eseguito all'accensione del calcolatore e poi resta disponibile per rendere "intelligibili" i comandi che vengono dai programmi applicativi.

Ogni programma (di sistema o applicativo) è redatto in un «linguaggio di programmazione». S'intende con questa locuzione, alquanto antropomorfica, un sistema di codifica dell'informazione accessibile ("comprensibile") all'elaboratore. Al pari del linguaggio naturale, un linguaggio di programmazione è caratterizzato da un "vocabolario" e da una "sintassi" secondo cui vengono combinate le "parole" del vocabolario per formare "proposizioni" aventi senso compiuto. In realtà esistono più linguaggi a diversi livelli di complessità. Il più semplice è il "linguaggio macchina", in cui sono scritti i comandi da impartire direttamente alla CPU. Questi comandi possono essere del tipo: «leggi i tali dati dalla memoria, esegui su di essi la tale operazione, scrivi il risultato in memoria e passa al comando successivo». L'importante è identificare i dati sui quali lavorare: a questo scopo la memoria, come ogni buon archivio, è organizzata come un casellario in cui ogni casella o locazione ha un suo proprio indirizzo. Perciò il comando elementare diventa più propriamente: «leggi il contenuto di queste locazioni della memoria, esegui questa operazione, scrivi il risultato in quest'altra locazione e passa al comando successivo», e il programma è una lunga lista di comandi siffatti. Così si doveva fare fino alla fine degli anni Cinquanta, ma la programmazione era un lavoro tediosissimo, e la probabilità di sbagliare altissima. Perciò sono stati prodotti linguaggi a più alto livello in cui, per esempio, nella programmazione di espressioni matematiche le variabili sono designate con un nome anziché con una locazione di memoria, e operazioni complicate sono descritte sinteticamente, con modalità simili a quelle consuete nell'algebra. Queste espressioni devono essere poi rese intelligibili all'elaboratore: a questo provvedono programmi di sistema ("traduttori"), che identificano le locazioni di memoria corrispondenti alle variabili e scompongono i comandi sintetici in sequenze di operazioni elementari. Talvolta il traduttore (che allora viene chiamato "interprete") compie questa operazione comando per comando durante l'esecuzione del programma; altre volte invece (il "compilatore") produce un nuovo programma, che poi sarà eseguito.

  

VI. La telematica e Internet

Quando il trattamento coinvolge la trasmissione a distanza si usa un altro neologismo: «telematica». In particolare appartiene all'ambito della telematica (e quasi, nell'immagine comune, s'identifica con essa) ciò che oggi è conosciuto col nome di Internet. Si tratta di una "rete di relazioni", difficile da definire diversamente perché non riconducibile alle consuete definizioni con cui si presentano gli oggetti tecnici. Internet nacque nel 1969 quando il Ministero della Difesa degli U.S.A., volendo costruire una rete di telecomunicazione a prova di sabotaggio, non trovò di meglio che utilizzare l'intero sistema mondiale di telecomunicazione, in cui i messaggi percorrono itinerari pressoché sconosciuti. Questa inafferrabilità e incontrollabilità sono rimaste quando il sistema è stato aperto agli usi civili. Molto schematicamente si può dire che Internet è formata da alcuni milioni di nodi, costituiti da elaboratori (host computer) collegati fra loro attraverso le normali reti di telecomunicazione, le medesime su cui viaggiano le telefonate e i programmi radio e televisivi. A ciascun nodo gli elaboratori terminali (circa 410 milioni in tutto il mondo alla fine del 2000) si possono collegare attraverso linee «commutate», cioè le normali linee telefoniche (ed è il caso delle utenze domestiche), oppure «dedicate», ossia ancora mediante linee telefoniche di tipo tradizionale che però non passano attraverso i dispositivi di commutazione delle centrali; oppure cavi di tipo speciale, adatti alla trasmissione ad alta velocità. Questi collegamenti possono anche formare reti locali (LAN, local area network; anche Intranet). Gli host computer dei nodi sono collegati in permanenza alla rete (benché non si sappia quale itinerario seguano i messaggi che li interessano). Nella loro memoria risiede tutta l'informazione che ciascun utente vuol mettere a disposizione di tutti gli altri, e sono aperte le "cassette delle lettere" (mailbox) degli utenti di posta elettronica. I terminali degli utenti, invece, sono collegati ai nodi solo quando lo si desidera per spedire la propria posta elettronica (E-mail), "aprire" la propria cassetta delle lettere o "navigare in rete", ossia esplorare il suo contenuto d'informazione in cerca di ciò che interessa, e accedere all'informazione riposta in un qualunque nodo del mondo.

Chi volesse precisare da quali oggetti materiali sia composto il "sistema" Internet sarebbe perciò in grande imbarazzo. Infatti solo una parte degli host computer (non tutti) e delle linee locali di collegamento è dedicata esclusivamente alla rete, tutto il resto è condiviso con altri servizi. Sicché si potrebbe dire, con uguale ragione, che appartengono a Internet tutte le reti di telecomunicazione del mondo e tutti gli elaboratori che in qualche momento possono essere collegati ad esse - se si guarda ai luoghi dove i messaggi possono in qualche momento nascere, transitare e arrivare - oppure quasi nulla, se invece s'intende quale hardware appartiene alla rete Internet e soltanto ad essa. Dal punto di vista tecnologico, poi, l'unica cosa che appartiene specificamente a Internet e la caratterizza è del tutto immateriale: è un "protocollo", ossia un insieme di regole di codifica che i messaggi devono osservare per essere riconosciuti dal terminale che li riceve.

Perciò Internet è perfettamente "anarchica": nessuno ne è padrone, ognuno vi può diffondere qualunque genere di messaggio e le forze di polizia hanno grande difficoltà a impedire che sia usata per fini illeciti. Essa appare come il risultato dell'aggregazione spontanea, tumultuosa e quasi senza regole di oggetti nati per altri fini: trasmettere telefonate o segnali televisivi. Questo è un paradosso in palese contraddizione con i canoni tradizionali della tecnologia, che vorrebbero ogni grande sistema tecnico definito e riconoscibile in tutti i suoi particolari, e il suo funzionamento affidato a un potere direttivo efficiente e bene organizzato. Ma la sua anarchicità è anche contraddittoria in sé, e rispecchia in questo una essenziale contraddittorietà della tecnica: da un lato appare cosa ottima in quanto libera l'informazione da ogni condizionamento di potere; dall'altro è profondamente inquietante perché rappresenta il punto estremo di un processo di "spersonalizzazione" della tecnica e di un suo costituirsi in potere autonomo dall'uomo, incontrollabile e perciò possibile preda di maligne potenze non-umane. Si comprende ancora una volta di più come occorra una cultura dell'uomo, matura e profondamente rispettosa della sua dignità, per trarre tutto il meglio da questi strumenti di informazione e di globalizzazione, e come sia altresì necessaria una visione sapienziale della scienza e della tecnica.

  

VII. La società dell'informazione

Il progressivo allargamento del concetto di informazione rispecchia il corrispondente aumento d'importanza dell'informazione non solo nel mondo della scienza e della tecnica, ma nella cultura e nella società. Naturalmente nessuna società ordinata ha mai potuto fare a meno della circolazione dell'informazione. Ma essa ha assunto, durante il Novecento, un'incidenza e un ruolo del tutto diversi. È da quando la diffusione dell'informazione è stata affidata alla parola parlata o scritta, all'immagine dipinta, incisa o scolpita, agli strumenti della cultura materiale, ecc., che si può parlare di storia. Con l'avvento della stampa è aumentato di molto il numero di coloro che potevano essere raggiunti e fatti partecipi di informazione. Ma ora la tecnologia dell'informazione, cioè il moltiplicarsi e il diffondersi degli strumenti tecnici che ne rendono possibile la riproduzione e la trasmissione, ha profondamente mutato questo quadro. Il telegrafo e il telefono (oggi anche cellulare) hanno reso immediata la comunicazione a distanza; la fotografia e il cinematografo hanno consentito l'illimitata moltiplicazione e diffusione delle immagini. La radio per la parola, la televisione per l'immagine fanno sì che, almeno nei paesi industrializzati, ciascuno possa conoscere ciò che avviene in tutto il mondo "in tempo reale", come s'usa dire, ossia mentre le cose avvengono, o immediatamente dopo. La portata sociale di queste trasformazioni è almeno pari a quella della conquista dell'energia, che ha contrassegnato la rivoluzione industriale; l'effetto sul costume e sulla cultura è forse maggiore. Questi strumenti hanno potenzialmente cancellato l'isolamento degli individui (anche se da soli non possono certo bastare a superare la solitudine, che richiede una cultura dell'uomo e non solo una tecnologia): l'anziano solo in casa, o l'alpinista in arrampicata solitaria, sanno di poter chiedere soccorso in qualsiasi momento; gli abitanti dei piccoli paesi di montagna hanno le stesse possibilità di conoscenza dei cittadini delle capitali del mondo. Le reti telematiche, Internet in primo luogo (cfr. infra VI), hanno enormemente allargato le possibilità di produrre e ricevere cultura: lo studioso può consultare i cataloghi on line di tutte le grandi biblioteche del mondo senza muoversi dal suo tavolo di lavoro; la sua ricerca bibliografica, che avrebbe richiesto un tempo giornate di tedioso lavoro, ora può svolgersi in pochi minuti, e gli articoli gli arrivano via telefax o per posta elettronica.

Si parla di "città cablata" e di "casa intelligente". Con la prima locuzione s'intende che i fili del telefono sono sostituiti da supporti con capacità di trasmissione enormemente più grande, per esempio da fibre ottiche, sicché sullo stesso collegamento si può parlare per telefono con più persone, si possono stabilire collegamenti in rete ad alta velocità, si può scegliere lo spettacolo televisivo con una libertà prima sconosciuta. La seconda locuzione, poi, significa che un elaboratore, che funge da "centrale di controllo", riceve le informazioni provenienti da ogni punto della casa e, a sua volta, può comandare a distanza l'apertura e chiusura di porte e finestre, può accendere e spegnere il fuoco in cucina, le luci elettriche, l'impianto di condizionamento: sicché non occorre muoversi per le faccende domestiche. Così la città e la casa non sono più viste tanto come un "luogo" materiale, con certe dimensioni e una organizzazione dello spazio in cui muoversi, ma piuttosto come una rete di collegamenti in cui circolano le informazioni e non più gli abitanti; e il moto di questi e lo spazio diventa, come s'usa dire, "virtuale".

Si tratta di una trasformazione profonda che investe insieme la tecnica, l'economia e la società: dalla società dell'energia si passa alla società dell'informazione. Fino agli anni cinquanta del XX secolo, il principale indicatore del benessere dei popoli era il consumo di energia. Poi le crisi energetiche e l'inquinamento ambientale hanno scosso la convinzione che la qualità della vita fosse positivamente correlata con l'uso dell'energia. Sono stati adottati altri indicatori: dapprima il consumo di carta stampata, poi il numero di calcolatori e infine quello dei collegamenti a Internet. Si continua a usare energia in quantità crescente, è vero, ma lo si fa con un crescente senso di colpa, fra le dichiarazioni di allarme di studiosi sempre più credibili. Intanto l'andamento delle borse è determinato sempre più dai titoli informatici piuttosto che da quelli energetici. Per tutto questo Norbert Wiener (1894-1964) fondatore della cibernetica (uno dei grandi campi dell'ingegneria dell'informazione) ha parlato di "seconda rivoluzione industriale". Per la verità questa locuzione era già stata usata, a metà dell'Ottocento, per designare il passaggio dalle macchine termiche alle macchine elettriche, ma l'accezione di Wiener sembra più pertinente.

Di fronte a queste rapide ed incisive trasformazioni, anche la sociologia ha dedicato attenzione alla società dell'informazione, e lo ha fatto sotto molteplici punti di vista. Autori come H.M. McLuhan, J. Habermas, N. Luhmann, E. Morin, K.O. Apel e lo stesso Karl Popper si sono occupati della comunicazione dell'informazione come fenomeno capace di generare non solo un nuovo stile di vita sociale, ma anche una nuova cultura. Si va progressivamente affermando il concetto di "villaggio globale", nella cui "piazza", ciascuno può essere al corrente di ciò che avviene in ogni ambito di vita e presentare le proprie idee ed iniziative. Ma esiste una certa circolarità fra antropologia e società dell'informazione. Da un lato la società informatizzata si basa (spesso implicitamente) su una certa visione della persona umana (talvolta in senso riduttivo) e ne veicola l'immagine (l'uomo come consumatore, come essere ludico, come generatore di profitto economico, come soggetto di reti culturali e scientifiche, ecc.); dall'altro, l'immagine della persona e del suo vissuto paiono lasciarsi modellare o sembrano perfino evolvere sulla spinta della comunicazione informativa, generando così "nuove culture" e "nuovi valori". Basti ricordare il dibattito circa le influenze della "realtà virtuale" sui nostri comportamenti, bisogni o desideri, o l'evoluzione subita dalla nozione di "memoria", passata dall'ambito della vita dello spirito a quello della tecnologia dei materiali.

  

VIII. L'informazione nella riflessione della teologia

Dal canto suo la teologia ha anch'essa dedicato uno specifico interesse all'informazione. Esso riguarda principalmente due aspetti: la società dell'informazione e la presenza di informazione nel mondo naturale.

Per quanto concerne il primo aspetto, se l'impiego dei mass media è stato sempre presente all'interno della vita religiosa e tempestivamente impiegato per fini di catechesi e di promozione della cultura cristiana (si pensi all'immediata utilizzazione della stampa e della radio, ma si potrebbe perfino risalire all'uso dell'immagine sacra come veicolo di trasmissione del contenuto della fede), negli ultimi decenni tale interesse si sta spostando anche verso livelli di riflessione teorica (cfr. Prini, 1983; Panteghini 1993; Carnicella 1998). Questa pare svilupparsi essenzialmente lungo due linee. La prima è costituita dallo studio del legame fra teologia della Rivelazione e comunicazione, fra teologia della parola e filosofia dell'informazione, fino ad originare una disciplina oggi nota come «teologia della comunicazione»; la seconda riguarda la riflessione su come le proprietà del messaggio e dell'annuncio cristiani - caratterizzati dalle categorie del contatto personale, della testimonianza di vita, del rifiuto di ogni manipolazione, ecc. - possano essere conservate all'interno delle contemporanee tecniche di diffusione e di trattamento dell'informazione.

Dal punto di vista istituzionale, oltre al crescente impiego a livello professionale, da parte di organismi ecclesiali, di strumenti per la produzione e la diffusione dell'informazione, va segnalata la creazione, dopo il Concilio Vaticano II, del Pontificio Consiglio per le Comunicazioni Sociali. I temi concernenti il diritto all'informazione, i suoi rapporti con la verità e la giustizia, la sua equa distribuzione fra gli abitanti della terra, vengono ricondotti abitualmente nel terreno dell'etica dell'infomazione e nell'etica del lavoro scientifico. Una volta assicurate le precedenti garanzie etiche, non vi è motivo di vedere un'opposizione fra la "società dell'informazione" ed una antropologia di ispirazione cristiana. Quest'ultima, al contrario, possiede una concezione relazionale dell'essere umano ove la comunicazione, il reciproco arricchimento di informazione, lo scambio del dare e del ricevere, sono visti come fonte di sviluppo e di perfezionamento dell'essere personale, per sua natura sociale e in relazione costruttiva con gli altri. Il documento conciliare Gaudium et spes (1965), dopo aver riconosciuto che i rapporti umani, specie quelli basati sul servizio e sulla carità si rivelano «di grande importanza per uomini sempre più dipendenti gli uni dagli altri e per un mondo che va sempre più verso l'unificazione», ricorda che l'essere umano è sociale per natura, aperto alla comunicazione perché immagine di un Dio rivelatosi come comunione di Persone (cfr. n. 24). Al tema degli strumenti della comunicazione sociale lo stesso Concilio Vaticano II ha dedicato uno dei suoi primi documenti, il decreto Inter mirifica (1963).

Nel secondo aspetto, quello che concerne la presenza di informazione - o anche di progettualità - nell'universo, le riflessioni della teologia si pongono in dialogo con la filosofia della natura. Pur riconoscendo una diversità di ambiti, la prospettiva cristiana di un mondo creato dalla Parola divina quale fonte di intelligibilità e di significato, offre un raccordo con quanto la filosofia, a partire dall'analisi delle scienze, segnala riguardo l'intelligibilità e l'ordine della natura, ed il coordinamento mostrato da molti suoi processi. Ricollegandoci a quanto qui detto in precedenza (cfr. supra, III.3), si può anche pensare che l'informazione-ordine o l'informazione-finalità manifestate dalla natura e dalle sue leggi (nei suoi vari livelli fisici, chimici e biologici), sia in realtà un'informazione che regoli l'esistenza e le proprietà dell'intero universo, cioè di un unico sistema considerato nel suo insieme. Si potrebbe allora parlare di una Causa da esso distinta, quale origine dell'informazione che in esso si contiene e si trasporta. In questo modo la teologia può ricondurre il concetto di informazione anche al rapporto tra il mondo creato e il suo Creatore; non lontano, forse, dal messaggio della Genesi, quando parla di Dio che "dà forma" all'uomo e alla donna (cfr. Gen, 2,7 e 2,22), o dalle parole di Isaia, quando dice che Dio ha "formato" i cieli e "plasmato" la terra, non perché restasse orrida regione, ma perché fosse abitata (cfr. Is 45,18).

  

Bibliografia: 

L. STEFANINI, Metafisica della forma, Liviana, Padova 1949; E.I. WATKIN, A Philosophy of Form, Sheed and Ward, London 19503; L. BRILLOUIN, La Science et la theorie de l'Information, Masson, Paris 1959; N. WIENER, La cibernetica (1948), Il Saggiatore, Milano 1968; C.E. SHANNON, W. WEAVER, La teoria matematica delle comunicazioni, ETAS Kompass, Milano 1971; E. AGAZZI E P. ROSSI (a cura di), Cibernetica e teoria dell'informazione, La Scuola, Brescia 1978; A. CARLINI, Forma, in "Enciclopedia Filosofica", Edipem, Roma 1979, vol. III, pp. 714-726; H. INOSE, J.R. PIERCE, Tecnologia dell'informazione e nuova cultura, Mondadori, Milano 1983; P.A. ROSSI, La cibernetica e la teoria dell'informazione nel XX secolo, in "Storia delle scienze", a cura di E. Agazzi, Città Nuova, Roma 1984, vol. II, pp. 423-435; A. CARLINI, Forma, in "Dizionario delle idee", Sansoni, Firenze 1987, pp. 447-451; A. DULLES, Il Vaticano II e le comunicazioni in "Vaticano II. Bilancio e prospettive 25 anni dopo", a cura di R. Latourelle, Cittadella, Assisi 1987; P. PRINI (a cura di), Informatica e Pastorale, Morcelliana, Brescia 1987; M. MCLUHAN, The global village. Transfomations in world life and media in the 21st century, Oxford Univ. Press, Oxford - New York 1989; L. GALLINO (a cura di), Informatica e scienze umane. Lo stato dell'arte, F. Angeli, Milano 1991; M. MCLUHAN, Galassia Gutemberg (1967), Armando, Roma 1991; C. WASSERMANN, R. KIRBY, B. RORDORF (a cura di), Theology of Information. Proceedings of the Third European Conference on Science and Theology, Labor et Fides, Geneve 1992; PONTIFICIO CONSIGLIO PER LE COMUNICAZIONI SOCIALI, Aetatis novae 20.2.1992, in EV 13, 1002-1105; A. GALLIPPI, Dizionario di informatica, Tecniche nuove, Milano 1993; G. PANTEGHINI, Quale comunicazione nella Chiesa?, EDB, Bologna 1993; J.R. BENIGER, Le origini della società dell'informazione. La rivoluzione del controllo, Utet, Torino 1995; A. BENITO (a cura di), Dizionario di scienze e tecniche della comunicazione, San Paolo, Cinisello Balsamo 1996; S. CERRATO (a cura di), Teoria dell'informazione, Cuen, Napoli 1996; F.J. EILERS, R. GIANNATELLI (a cura di), Chiesa e comunicazione sociale: i documenti fondamentali, LDC, Torino 1996; L. FLORIDI (a cura di), Filosofia e informatica, Paravia, Torino 1996; L FLORIDI , L'estensione dell'intelligenza. Guida all'informatica per filosofi, Armando, Roma 1996; H. BREUER, Atlante di informatica, Hoepli, Milano 1997; G. SANTANIELLO, Libertà etica garanzia dell'informazione, Piemme, Casale Monferrato 1997; PONTIFICIO CONSIGLIO PER LE COMUNICAZIONI SOCIALI, Etica nella pubblicità, 22.2.1997, in EV 16, 214-255; G.O. LONGO, Il nuovo Golem. Come il computer cambia la nostra cultura, Laterza, Bari 1998; M.C. CARNICELLA, Comunicazione ed evangelizzazione nella Chiesa, Paoline, Milano 1998.