Raul Mordenti


(6 Lezione: 6/3/2002) La trasmissione dell'informazione e Ia codifica



Yüklə 227,96 Kb.
səhifə6/6
tarix08.12.2017
ölçüsü227,96 Kb.
#14748
1   2   3   4   5   6

(6 Lezione: 6/3/2002) La trasmissione dell'informazione e Ia codifica


Come converrete abbiamo finora studiato la comunicazione, e dunque la semiotica, a partire dai suoi aspetti umani, e non per caso è stato spesso prevalente nel nostro percorso l'identificazione (in sé del tutto infondata, o meglio parziale) fra segni e linguaggio, fra semiotica e linguistica (e sono linguisti sia Saussure che Jakobson).

Ma si può affrontare l'informazione, e la sua teoria, anche cercando di prescindere dall'elemento umano, considerandole, per così dire, come una mera quantità, dunque come problema anzitutto tecnologico e logico-matematico.

Tale impostazione è prevalente quando si tratta di informazione in rapporto con le macchine, o quando si trasmettono non parole ma segnali.



Il tentativo del cittadino Chappe

I tentativi di costruire forme di comunicazione meccanica, e non verbale, sono recenti ma non recentissimi: ricordo almeno che il 3 agosto 1793 (dunque in pieno "Terrore") la Convenzione approvò il progetto di un "telegrafo ottico", presentato dal cittadino Claude Chappe, un fisico di professione (1763-1805); Chappe aveva elaborato un sistema di "semafori" (alla lettera: portatori di segni) che consistevano in asticelle di legno, azionate da ruote e pulegge, alle cui diverse posizioni corrispondevano diversi significati; ogni posizione assunta dal semaforo doveva essere ripetuta alla stazione successiva della catena (da qui origina il nome relais = stazione, che si usa ancora in elettromeccanica). La prima catena di semafori collegò Parigi a Lille; il 15 agosto 1794 (dunque pochi giorni dopo Termidoro! 27 luglio) questa linea di comunicazione trasmise a Parigi, in tempo quasi reale la notizia della resa di Duquesnoy; il 13 ottobre 1794 la linea si estende da Parigi a Landau, poi da Parigi a Brest.

Imitato da molti altri, privo di un brevetto della sua ivenzione, Claude Chappe si suicidò.

Lo schema di Shannon e Weaver

Claude Elwood Shannon, con uno studio del 1948 pubblicato sul "Bell System Technical Journal" (dunque in un ambiente decisamente tecnologico) affronta per la prima volta il problema di una teoria matematica della comunicazione:

"Il problema fondamentale delle comunicazioni è quello di riprodurre esattamente o approssimativamente in un certo punto un messaggio scelto in un altro punto"29.

Il problema è ridotto alla sua essenza matematica (e tecnologica). Come vedete si è del tutto fuori da ogni concezione umana, mentalistica o psicologica, oppure linguistica, del problema della comunicazione, che può essere riferito anche alle macchine. L'informazione è una grandezza fisica che pertiene alla trasmissione del messaggio.

L'anno dopo si aggiunge a Shannon uno studio di Warren Weaver che fornisce un'interpretazione non solo matematica del problema e della teoria di Shannon, che, per dichiarazione dello stesso Shannon, deve molto a Norbert Wiener e alla fonda­zio­ne, da parte sua, della cosiddetta cibernetica, cioè la forma moderna della teoria della comu­nicazione e del controllo (dal greco kubernh'tes kubernétes = timoniere, naviga­tore), svilup­pa­tasi soprattutto intorno al concetto di feedback (o di retro-azio­ne), una ricerca teorica, come spesso accade nella storia umana, oc­casionata da un'e­si­gen­za bellica, quella di governare verso il loro bersaglio le bombe (la cibernetica, di­ce Wiener, "è lo studio dei messaggi, e particolarmente dei messaggi effettivamente di comando"30.

In realtà la cibernetica fornirà la base per la costruzione dei programmi (software) per comunicare a/con le macchine (prima macchine meccaniche, poi elettromeccaniche, infine elettroniche), e si può dire che dall'incontro fra la teoria cibernetica e la tecnologia del cilicio nasca l'informatica moderna.

A sua volta Wiener riconosce che si deve a Shannon uno degli aspetti principali della teoria, cioè l'introduzione del concetto di "entropia"; all'informatica le teorie di Shannon e Weaver forniranno un contributo decisivo a proposito del concetto stesso di "informazione" e della quantità di informazione da trasmettere

Nella sua forma più semplice lo schema di trasmissione dell'inforrmazione elaborato da Shannon e Weaver può essere così rappresentato (v. Fig. 1):

FIGURA 1:

Dove F rappresenta una "fonte di informazione";

C un trasmettitore, o codificatore che converte l'informazione in un messaggio da inviare, tramite

un canale C (cioè, lo sappiamo ormai, un mezzo fisico impiegato per trasmettere il messaggio

a un ricevitore decodificatore D, che compie l'operazione inversa a quella di C (cioè de-codifica il messaggio) ricostruendo, a partire dal messaggio l'informazione;

e infine un destinatario, che definiamo Des (e non solo D) proprio per distinguerlo dal ricevitore-decodificatore.

È da notare che su tutto il processo incombe il fattore r, cioè il rumore, o disturbo, che interviene, essenzialmente sul canale, disturbando e deformando il messaggio e la sua trasmissione.

Questo stesso schema può essere rappresentato in modo più articolato (v. Fig.1 bis):


-----------codice-------

F -> M -> TR -> S -> C-> S' -> R -> M' -> D

r

Dove una Fonte F produce un Messaggio che viene convertito da un trasmettitore TR in un segnale S, attraverso un canale C, ad un ricettore (o decodificatore) R che lo riconverte in messaggio M e lo fa arrivare ad un destinatario D; dove è da notare che:



  1. ciò che si trasmette non è l'informazione ma un segnale codificato S;

  2. che la struttura della comunicazione è "a specchio", cioè completamente simmetrica, e ruotante attorno al punto C, cioè al canale materiale della comunicazione;

  3. che sul canale interviene il disturbo del rumore;

  4. che il codice interviene a un certo punto del processo, trasformando (attraverso la codifica) l'informazione/messaggio in un segnale e poi ritrasformando (attraverso la decodifica) quel segnale in un'informazione/messaggio;

e ) che esiste una differenza, in via di principio ineliminabile, fra S ed S' ed anche fra M ed M', giacché sul processo di trasmissione è intervenuto il disturbo del "rumore" r, deformando il nostro dato;

  1. che in realtà ciò che viene trasmesso non è il messaggio bensì un segnale che lo ha codificato, e ciò che viene ricevuto (di nuovo) non è il messaggio ma un segnale che richiede di essere decodificato, perché sia ricostruito il messaggio;

  2. che, infine, tutti gli elementi della catena possono non essere uomini, ma anche macchine.

Pensiamo ad esempio ad un termostato che regola una caldaia: quando la temperatura sale oltre un certo livello essa funzione come fonte F e invia un'informazione M ad un meccanismo codificatore che trasforma quell'informazione sotto forma di un segnale S (ad esempio un impulso elettrico) e lo trasmette attraverso un canale C ad un apparato ricevente R che, a sua volta, decodifica quel segnale S/S' e lo fa diventare un nuovo messaggio M', rendendolo ad esempio un comando inviato all'alimentatore della caldaia stessa (che funge da D, destinatario), del tipo "sospendi, o riduci, l'immissione di carburante".

Come vedete c'è qui comunicazione, e c'è codifica, anche se non c'è, almeno apparentemente, alcun intervento diretto dell'uomo.


Il problema dell'entropìa

Notate che dal punto di vista della teoria dell'informazione non interessa affatto che il messaggio trasmesso abbia un senso, e neppure che esso abbia un significato (ad esempio se la temperatura di -10° sia oppure no una buona fonte per emettere il messaggio "spengi il riscaldamento!"). In questo senso si potrebbe dire che c'è qui una comunicazione che non prevede significazione (ma questo punto è negato da autorevoli studiosi, fra cui ricordiamo Cesare Segre, per i quali non c'è comunicazione possibile che non preveda umana significazione).

Il problema di Shannon e Weaver è un altro: come codificare e trasmettere un messaggio in modo tale che esso, benché disturbato nel canale dal rumore, non perda di informazione (o la perda il meno possibile) e possa essere anzi decodificato correttamente?

Intanto c'è un problema tecnologico, cioè limitare al massimo il rumore che interviene su C, dato che:


I = S/r

cioè l'informazione è pari al segnale diviso per il rumore (cioè la forza del segnale è inversamente proporzionale alla forza del rumore).

Poi c'è un problema semantico-pragmatico che riguarda la codifica: cioè utilizzare un sistema di codifica che ostacoli la perdita di informazione (e anche la sua eventuale ridondanza), cioè che ottimizzi dal punto di vista economico (si parla qui di economia semiotica, non di quella monetaria, anche se le due economie possono essere legate) la possibilità di trasmissione dell'informazione stessa.

Ma c'è soprattutto un problema teorico fondamentale, legato al citato concetto di entropìa. Che cos'è l'entropia? La parola è composta da "en" (=dentro) e "tropìa" (= mutamento) cioè significa un mutamento interno, ed è concetto legato al 2° principio della termodinamica (Sadi Carnot, 1824), detto anche "principio della degradazione dell'energia" che osserva che il calore passa solo da un corpo caldo ad un corpo freddo, e che

"in ogni sistema chiuso ogni trasformazione di energia comporta una perdita dell'energia totale disponibile nel sistema".

Si chiama allora "degradazione" il passaggio da una forma di energia all'altra che non può essere accompagnata da una trasformazione inversa completa, perché nel passaggio si determina perdita (ad esempio l'energia termica può essere trasformata in movimento, cioè in energia meccanica, e questa a sua volta in energia termica, ma al termine del processo ci sarà perdita di energia, e non conservazione assoluta, o addirittura incremento: in questo esempio si dirà che l'energia meccanica è una forma degradata dell'energia termica).

Anche l'informazione può essere considerata come una forma di energia che, trasformandosi, non si conserva integralmente, ma tende, entropicamente, a dis-ordinarsi, cioè a degradarsi, a impoveririsi.

Si capisce anche bene perché questo principio della fisica abbia attirato l'attenzione dei filosofi, perché c'è in esso l'affermazione del disordine crescente del sistema e anche della irreversibilità di tale processo: e non funziona così anche il tempo, l'"irreversibile" per definizione? Si può anzi dire che tutti i processi che si svolgono nel tempo vanno nella stessa direzione, cioè nella direzione dell'entropìa crescente (o del disordine crescente), o dell'energia decrescente, che è dire lo stesso.

Nella teoria dell'informazione l'entropìa è dunque la misura della quantità di indeterminatezza dell'informazione stessa (cioè della non-informazione) che tende a crescere ad ogni atto di modificazione/trasmissione del messaggio: più il messaggio viene manipolato, codificato, trasmesso, decodificato, più l'informazione si disperde perché l'entropìa cresce.

Una cosa, questa, che la filologia sa molto bene da sempre: "testo tràdito = testo tradìto", ad ogni attività di copiatura un testo viene modificato, e si introducono errori (si calcola almeno uno per pagina, se il trascrittore è molto accurato!); senza scomodare i filologi, il gioco cosiddetto "del telefono" SPIEGARE esprime bene il processo di degradazione dell'informazione attraverso la sua trasmissione; e potremmo anzi dire che la scienza filologica esiste proprio per combattere l'entropìa testuale, cioè per cercare di riparare i danni comportati dalla trasmissione dei testi attraverso i secoli, ri-costruendo, re-cuperando il testo-messaggio nella sua configurazione originaria.


Ma torniamo alla comunicazione dell'informazione, e al concetto cruciale di entropìa applicato alla comunicazione.

Abbiamo detto che "Nella teoria dell'informazione l'entropìa è la misura della quantità di indeterminatezza dell'informazione stessa (cioè della non-informazione) che tende a crescere ad ogni atto di modificazione/trasmissione del messaggio: più il messaggio viene manipolato, codificato, trasmesso, decodificato, più l'informazione si disperde perché l'entropìa cresce".

Ci sono qui due problemi che si pone la teoria dell'informazione:


  1. uno riguarda la riduzione massima del rumore che interviene sul canale,

  2. l'altro riguarda il sistema di codifica adottato che deve combattere l'entropìa;

il primo problema può essere ( sembrare) un problema solo tecnologico (dotarsi di canali il più possibile "trasparenti") e fu affrontato in questi termini, specialmente da Weaver, ma in realtà è affatto solo un problema tecnologico; si pensi alla funzione che il "rumore" conseguente all'eccesso di informazioni determina nella nostra comunicazione quotidiana, costringendoci, per così dire, ad "alzare sempre più il volume", cioè a trasmettere un numero maggiori di informazioni nella speranza che, almeno una parte di esse, superi il "rumore di fondo" e giunga ai nostri destinatari. Come ben sapete questo è uno dei problemi di fondo della comunicazione contemporanea.

Ma è altrettanto rilevante (e ci riguarda da vicino) anche il secondo problema, di come codificare, organizzare, il nostro messaggio per combattere l'entropìa. Anche la forma che il messaggio assume (cioè la sua codifica) deriva spesso dalla necessità di combattere l'effetto deformante del rumore: penso ad esempio agli "avvisi ai naviganti" trasmessi per radio, in cui le parole erano scandite in modo innaturalmente lento, e magari ripetute, per essere percepibili anche in caso di forti disturbi dei rice-trasmettitori radiofonici.

Ma qui, se il problema principale è quello quantitativo, e allora occorre porsi la domanda: come si quantifica l'informazione? La quantità di informazione di un atto di comunicazione può essere quantificata in base al rapporto che esiste fra l'informazione e la sua probabilità. Qual è allora l'unità minima di informazione?

Il "bit" (binary digit") cioè un'unità di informazione che corrisponde a una probabilità elementare, 1 su 2, sì o no, acceso o spento (e proprio questa sarà la base del cosiddetto "sistema binario", adottato dall'informatica, giacché la macchina "capisce" questo, se la corrente passa, o non passa).

Notate: questo concetto viene però elaborato prima, ed indipendentemente, dalla macchina informatica, ma in campo puramente teorico.
Ma ecco dove entra in gioco il problema dell'entropìa.

Noi sappiamo che l'entropìa è massima in un sistema di dati totalmente disordinati (o casuali); più precisamente l'entropìa (o, se si vuole, il "disordine") di un sistema di informazione è al massimo quando gli elementi che lo compongono sono:



  1. equiprobabili;

  2. indipendenti fra loro.

Ad esempio rispondono a entrambe queste due caratteristiche i numeri del lotto, o quelli della tombola (che poi sono la stessa cosa);

(noi infatti possiamo anche leggere il gioco d'azzardo come il tentativo di ricostruire a priori un'informazione, prima cioè che essa si manifesti, scommettendo cioè che quella data configurazione dei numeri estratti su cui puntiamo corrisponda a quella dei numeri effettivamente estratti)
Per restare nell'ambito delle scommesse, non sono invece equiprobabili (almeno teoricamente), anche se sono indipendenti fra loro, i risultati del Totocalcio: per questo si vince di più (cioè, in realtà, si perde di più) giocando al lotto, perché i risultati sono più imprevedibili.
Al contrario di quello che può pensare il senso comune: ad una situazione di massima potenzialità, libertà, imprevedibilità dell'informazione, corrisponde dunque pragmaticamente un minimo della comunicazione, e, al limite, la sua impossibilità.

L'esempio classico è quello della macchina da scrivere addotto da Guilbaud (1954); si trattava di…

Ora la macchina da scrivere era composta da 42 tasti con due segni ciascuno, più il tasto dello spazio, per un totale di 85 segni; poiché in una cartella entravano 1500 battute, se consideriamo equiprobabili gli 85 segni (ipotizzando cioè che i tasti siano battuti a caso), ne deriva che una sola cartella può contenere un numero di messaggi pari a 85 elevato alla 1500.a: una follìa, un'informazione assolutamente non gestibile, non codificabile e non decodificabile da nessun cervello umano, e gestibile con molta perdita di tempo (e di denaro) anche da un cervello meccanico.
A limitare questa generazione incontrollata (e ingestibile) di informazioni ci soccorre il codice: il codice interviene a porre dei vincoli nei nostri dati, a introdurre rigidità e regole combinatorie (o sintagmatiche) e grammaticali (o paradigmatiche).

Dato un insieme di dati da x1 ad xn il codice y interviene a correggere e limitare l'equiprobabilità dei dati, poiché solo alcune combinazioni saranno lecite, alcune più probabili, altre meno probabili, altre escluse a priori.

Ad esempio se il codice adottato sarà quello dell'italiano scritto standard (en­tram­be queste due specificazioni sono, come capite, importanti, data l'esistenza dell'ita­liano orale e di Aldo Biscardi), allora potremmo limitare le infinite po­ten­­zialità dei nostri messaggi con alcuni vincoli sicuri:

fra le parole esiste uno spazio bianco, o un apostrofo;

le parole terminano, di solito, con una vocale;

alcuni nessi consonantici sono esclusi (es: -ZN-, o -TB-, etc.) altri altamente im­pro­­babili;

le consonanti possono al massimo raddoppiarsi, ma non triplicarsi (-TT- è am­mes­­so, -TTT- è escluso), alcune altre consonanti non raddoppiano mai (ad esempio la Z);

e così via.

Ma esiste anche un codice sintattico, uno semantico e così via, così che i segni di una lingua non sono affatto equiprobabili, né indipendenti (cfr. supra), e questo accade appunto perché la lingua un codice, che sottopone dunque i suoi elementi a dei vincoli.

Lepschy adduce l'esempio della parola /linguisticamente/: ebbene, la 'e' finale di questa parola non fornisce alcuna informazione, perché, dati il codice linguistico italiano e la serie delle lettere che precede quella 'e', tale 'e' è del tutto prevedibile; se volessimo risparmiare quantitativamente in un'immaginaria trasmissione a distanza, potremmo infatti anche omettere tale desinenza, e saremmo comunque sicuri che il destinatario ricostruirebbe egualmente la parola intera.

In questo caso il "risparmio" avviene perché si addebita al codice stesso, e alle sue regole condivise, un'informazione che il messaggio può fare a meno di contenere o di trasmettere.

Se ci trovassimo di fronte alla parola /chiariment/ la situazione sarebbe diversa, per­­ché il codice linguistico italiano ammette due desinenze possibili, una 'o' oppure una 'i' (e infatti queste due possibilità veicolano, sul piano semantico, un'in­formazione precisa, assente nel caso dell'avverbio: se si tratta di un singolare oppure di un plurale). Così non potremmo omettere la desinenza di /chiariment/ senza determinare perdita di informazione. Nel caso di una parola che abbia sia la forma maschile che quella femminile, sia il singolare che il plurale, le desinenze possibili sarebbero quattro, e così via.

Da questo punto di vista la quantità di informazione sembra essere inversamente proporzionale alla sua probabilità: più un elemento dell'informazione è improbabile e maggiore è la sua quantità informativa.

Questo problema della "quantità" dell'informazione, e dunque della economicità semiotica da rispettare nella formulazione dei messaggi (cioè nella codifica) fu cruciale in una fase dell'informatica, in cui si aveva a che fare con "intelligenze" delle macchine capace di gestire una mole assai limitata di dati, e si pone ogni volta che si tratti di far gestire dei dati cospicui a macchine con "memorie" o capacità limitate: non a caso anche oggi si è diffusa nella trasmissione degli SMS l'abitudine di usare la consonante 'k' in luogo del nesso 'ch' per indicare il suono velare di fronte a 'i' o 'e', in tal modo si scrive 'ki 6?" invece di "chi sei?", risparmiando un bel po' di battute sulla tastiera, scomodissima, del nostro cellulare (mi sembra questo un bell'esempio di una modifica del codice, linguistico in questo caso, sotto l'influenza delle tecnologia adottata per la codifica e la trasmissione dei messaggi, e personalmente non dubito, anche se non saprei qui dimostrarlo, che alcune regole dell'italiano scritto siano derivate da necessità connesse alla tecnologia della scrittura chirografica a penna).

Tale problema "quantitativo" riferito alla codifica sembra oggi attenuarsi di fronte allo sviluppo della "capienza" delle macchine informatiche (che poi è ciò che ha permesso lo sviluppo di interfacce sempre più "amichevoli" e facilitanti); tuttavia tale problema quantitativo resta importantissimo nel caso delle telecomunicazioni studiate in quanto tali, quando si tratta cioè di mettere a punto tecnologie e reti capaci di supportare una grande mole di dati (e lo vedremo che esso si ripropone nel caso dei telefonini cosiddetti "di terza generazione", a cui dedicheremo un apposito seminario con chi, in questo momento, sta svolgendo ricerche innovative in questo campo).

Ma dal punto di vista della comunicazione efficace e di quella che abbiamo definito "neo-retorica" (nel corso del nostro primo incontro), questa stessa regola, del rapporto inverso che esiste fra probabilità e potenza dell'informazione ("più un elemento dell'informazione è improbabile e maggiore è la sua quantità informativa"), può essere rovesciata: si può cioè perseguire intenzionalmente la produzione di un'informazione "improbabile" per rafforzare la potenza del nostro messaggio e colpire il nostro destinatario, e ciò si può ottenere o forzando al massimo le possibilità previste dal codice o addirittura violandole apertamente (tutto il campo della comunicazione pubblicitaria è talmente piena di questo tipo di comunicazioni, che un esempio sarebbe del tutto superfluo).


Sul concetto di codice

Il concetto di codice appare dunque centrale. Giacché il codice, come abbiamo visto, è una necessità del messaggio e della trasmissione dell'informazione, non solo del mittente del destinatario.

Ma che cos'è esattamente un codice?

Il nostro manuale Calabrese-Mucci (1975) lo definisce come:

"il repertorio di segnali trasmissibili dall'emittente, e le regole di combinazione che sono state stabilite fra i vari elementi del repertorio stesso" (pp.26.27).

Se così inteso il codice è dunque puramente combinatorio, cioè sintattico, e prescinde completamente dal significato e dalla significazione: fornisce cioè gli elementi di un sistema di segnali (il "repertorio di segnali", segnali, si noti, non segni!) e le regole che governano un tale sistema, che può dunque intendersi anche come un sistema di opposizioni vuote.

Per Eco (1975, pp.54-57) il concetto di codice è più complesso, perché ci osno 4 diversi fenomeni che chiamiamo codice:


  1. una serie di segnali regolati da leggi combinatorie interne, cioè un sistema sintattico;

  2. una serie di fatti, o di eventi, o di pensieri (siano essi la temperatura dell'acqua nel nostro termostato o il tramonto della luna, il livello dell'acqua o l'espressione del volto di Dio), cioè un sistema semantico;

  3. una serie di possibili risposte comportamentali del destinatario (siano esse l'accensione dello scaldabagno o la commozione dell'anima), cioè un sistema di comportamenti;

  4. una regola che associ gli elementi di 1) con gli elementi di 2) e di 3).

Secondo Umberto Eco solo questo significato 4 definisce un vero e proprio codice, essendo gli altri dei s-codici (cioè sotto-codici o insiemi, o strutture).

Codice è dunque la regola che associa stabilmente gli elementi di un s-codice agli elementi di un altro s.codice, o di più s-codici.

Anche i s-codici, in quanto strutture che sussistono a prescindere dal proposito significativo (o comunicativo) che li associ fra loro, possono essere studiati dalla teoria dell'informazione, ma non rappresentano codici perché non comportano significazione. I s-codici non hanno funzioni significanti, ma sono citati e considerati nell'ambito di processi di significazione, e per questo sono facilmente scambiati con codici veri e propri.



Riferimenti bibliografici della lezione:





  • G. Adamo, La codifica come rappresentazione, in Gigliozzi 1987, pp.39-63;

  • O. Calabrese- E. Mucci, Guida a la semiotica. Con un saggio di Luis J. Prieto, Firenze, Sansoni, 1975;

  • F. Casetti, Semiotica. Saggio critico, testimonianze, documenti, Milano, Accademia, 1977;

  • U. Eco, Trattato di semiotica generale, Milano, Bompiani, 1975;

  • G. Gigliozzi (a cura di), Studi di codifica e trattamento automatico dei testi, Roma, Bulzoni, 1987;

  • C. E. Shannon - W. Weaver, La teoria matematica delle comunicazioni, Milano, Etas Libri, 1983 (5a);

(7 Lezione: 12/3/2002) ????




1 M. Corti, Principi della comunicazione letteraria, Milano, Bompiani, 1976, p.184.

2 Ibidem, pp.184-185.

3 A. Rimbaud, Voyelles.

4 Cfr., per una rapida quanto rigorosa rassegna della retorica nella storia: R. Barilli, La retorica, Milano, Mondadori, 1983 (2a). Le citazioni dei Sofisti sono ivi, alle pp. 7 e sgg. Ormai classico è il manuale di H. Lausberg, Elementi di retorica, Bologna, Il Mulino, 1969, così come si rivela utilissimo quello di B. Mortara Garavelli, Manuale di retorica, Milano, Bompiani, 1988.

5 Se ne veda la traduzione italiana, a cura di Roberto Antonelli, Firenze, La Nuova Italia, 1992.

6 J. M. Lotman, Retorica, in * Enciclopedia, vol, 11, Torino, Einaudi, 1980, pp.1047-1066.

7 U. Volli, Il libro della comunicazione, Milano, Il Saggiatore, 1994, p.187.

8 Morris (1938), cit. in Eco 1981, p.630.

9 Cit. in Calabrese-Mucci 1975, p.213.

10 Cit. in Casetti 1977, p. 24.

11 Cratilo, 383 a (in: Platone, Tutti gli scritti, a cura di Giovanni Reale, Milano, Rusconi, 1991, p. 135)

12 Ibidem, 384 c-d (pp.135-6)a.

13 Eco 1978, p.116.

14 Ibidem, 439 b (p.181).

15 Ibidem, 400 c (p.148).

16 Cit. in Eco 1978, p.101.

17 Ibidem, p. 102.

18 Ibidem, p.104.

19 Sesto Empirico, Contro i matematici, cit. in Casetti 1977, p. 28.

20 A. Maierù, Signum negli scritti filosofici e teologici fra XIII e XIV secolo, in * Signum, Atti del IX Colloquio Internazionale (Roma, 8-10 gennario, 1998), a cura di Massimo Luigi Bianchi, Firenze, Olschki, 1999, pp.119-141 (p.123).

21 Cfr. supra, Lezione 2, p.000

22 Calabrese-Mucci, p.238.

23 Cit. in Calabrese-Mucci, p.232.

24 Maierù 1999, p. 135.

25 Ibidem.

26 Cit. in A. Maierù, cit., p.128.

27 Ibidem, pp128-129 e n.36.

28 Il dott. Francesco Testi (che ringrazio per questo) mi ha fatto pervenire un'intelligente rielaborazione dello schema che deriva dall'articolazione dei sei elementi jakobsoniani in due "piani", quello "dei soggetti" e quello "delle condizioni". Apparterrebbero al piano dei soggetti le funzioni Emotiva, Poetica e Conativa, e a quello delle condizioni le funzioni Metalinguistica, Fàtica e Referenziale (cfr. anche Volli 1994). In tal modo la "stella" del mio schema ruoterebbe (per così dire) su se stessa, ferme restando le opposizioni binarie che la costituiscono, e si strutturerebbe avendo nel suo "polo Nord" la funzione Poetica, affiancata (sempre nel "piano dei soggetti") dalla funzione Emotiva e da quella Conativa. Il "piano delle condizioni" ne risulta di conseguenza.

29 C. E. Shannon - W. Weaver, La teoria matematica delle comunicazioni, Milano, Etas Libri, 1983 (5a), p. 33.

30 Cit. in Adamo 1987, p.45.

Yüklə 227,96 Kb.

Dostları ilə paylaş:
1   2   3   4   5   6




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə