Le Clofrenì
(Les Claufrenìes)
Leggere completo in word a :
Culture, strutture, intelletti e civiltà
Geni, memi, qbit, schemi, semi.
File Word
Milano, 30 giugno 2015
Claudio Aroldi
SOMMARIO
TOTALE DAL FILE WORD
Sommario 1
1 Premessa 9
1.1 Le 4 sezioni di
Clò 9
1.2 Modalità di
lettura 9
2 Bibliografia 9
3 La cultura e la
civilta’ (dell’intelletto) 10
3.1 Crescita culturale
e complessità del concetto 10
3.2 Memi e Memetica –
da Wikipedia 11
3.3 Cosa è la cultura
? 11
3.4 E la civiltà ? 11
4 La visione
del mondo e il sistema di valori da “il mondo di Clò” 12
5 Cultura: complessità autoemergenza e autoaggregazione 13
5.1 Sistema complesso 13
5.2 Comportamento
emergente 13
5.3 Auto
organizzazione 13
5.4 La complessità di
Fritjof Capra 14
5.5 L’informazione di
James Gleick 14
6 La cultura
complessa, emergente, autorganizzante oppure no, secondo Clò 14
7 Teoria
dell’informazione 15
7.1 La teoria
dell'informazione e Claude Shannon 15
7.2 Panoramica 16
7.3 Applicazioni 16
7.3.1 Capacità di canale 16
7.3.2 Teoria delle
sorgenti 17
7.3.3 Teoria dei codici 17
7.3.4 Usi da parte dei
servizi segreti ed applicazioni alla sicurezza 17
7.3.5 Genereazione di
numeri pseudo-casuali 18
7.3.6 Steganografia 18
7.3.7 Storia Spread
spectrum 18
8 L'evoluzione
culturale ed il meme 18
8.1 Evoluzione e memi 18
8.2 L'evoluzione dei
memi: selezione "artificiale" 20
8.3 La forma assunta
dai memi nel cervello 20
8.4 Analogie
biologiche: virus memetici? 20
8.5 Resistenza al meme 21
8.6 Principia
Cybernetica Project 21
8.7 Memetica e
psicologia 22
8.8 Proprietà
memetiche 22
8.9 Esempi di meme 23
8.10 Tormentoni e
stereotipi linguistici 23
9 Un crogiuolo di
meta scienza 24
9.1 L'evoluzione
culturale ed il meme 24
9.2 Teoria
dell’informazione 24
9.3 Storia della
biologia - La genetica comportamentale 24
9.4 Origine della
lingua 24
9.4.1 Parola e lingua 25
9.5 Linguistica 25
9.6 Teoria della
comunicazione 26
9.7 Semantica 26
9.8 Attività di
pensiero 26
9.8.1 Etimologia 26
9.8.2 Caratteristiche del
pensiero 27
9.9 Neuroscienze 27
9.10 Informatica 27
9.10.1 Cenni storici 27
9.10.2 Aspetti tipici 28
9.11 Cibernetica 28
9.11.1 Storia del termine 28
10 Telecomunicazioni
: l’hardware della civilta’ dell’intelletto. 28
11 Telecomunicazioni
: i satelliti artificiali e loro habitat 29
11.1 Orbita polare, 30
11.2 Orbita equatoriale, 30
11.3 Orbita
geostazionaria, 30
11.4 Orbita terrestre
bassa, 30
11.5 Orbita terrestre
media. 30
11.6 Fasce di van Allen 31
11.7 Magnetosfera 31
11.8 Anomalia del Sud
Atlantico 31
11.9 Plasma 32
11.10 Conclusione : numero di satelliti e reticolo spaziale 33
12 I satelliti GPS,
un caso specifico 34
12.1 Sistema di
Posizionamento Globale 34
12.2 Storia del GPS 34
12.3 Il sistema 34
12.3.1 Principio di
funzionamento 35
12.3.2 Il segmento spaziale 36
12.3.3 Il segmento di
controllo 37
12.3.4 Il segmento utente:
il ricevitore GPS 38
12.3.5 GPS e teoria della
relatività 39
12.4 Sistemi alternativi 39
13 Telecomunicazioni
: le reti 40
13.1 Rete di
telecomunicazioni 40
13.2 Descrizione 40
13.3 Modello generale di
una rete di telecomunicazioni 41
13.4 Tipologia delle
informazioni fondamentali 41
13.5 Topologie di rete 42
13.6 Modalità di
trasferimento dell'informazione 43
13.7 Next Generation
Networking 44
13.7.1 Definizione 44
13.7.2 Caratteristiche 44
13.7.3 Implementazioni 44
13.8 Tecnologie di
trasmissione 45
14 Telecomunicazioni
: i cavi sottomarini 46
14.1 Cavo sottomarino 46
14.2 Generalità 46
14.3 Storia 47
14.4 Problematiche
comuni 48
14.5 Tipologie di cavi 48
14.5.1 Cavi per
telecomunicazioni 48
14.5.2 Cavi per trasporto
di energia 49
14.6 Altri progetti –
Alcune mappe di cavi sottomarini da Wikimedia Commons 49
15 Sistema di
telecomunicazioni 53
15.1 https://it.wikipedia.org/wiki/Telecomunicazione 53
15.2 Generalità 53
15.2.1 Classificazione 53
15.2.2 Infrastruttura 54
15.2.3 Teoria dei segnali 54
15.2.4 Diffusione 55
15.2.5 Sviluppi recenti 55
15.2.6 Clientela/Utenza 55
15.3 Descrizione/funzionamento 55
15.3.1 Trasmettitore e
ricevitore 56
15.3.2 Segnali 56
15.3.3 Canale e mezzo di
trasmissione 56
15.3.4 Codifica
dell'Informazione 57
15.3.5 Modulazione 57
15.3.6 Amplificazione,
filtraggio, equalizzazione 57
15.3.7 Rumore e
interferenza 57
15.3.8 La rete 58
15.4 Storia 58
15.4.1 Prime
telecomunicazioni 58
15.4.2 Telegrafo e telefono 58
15.4.3 Radio e televisione 59
15.4.4 Reti di computer e
Internet 59
15.5 Telecomunicazioni
in età moderna 60
15.5.1 Telefono 60
15.5.2 Radio e televisione 61
15.5.3 Telecomunicazioni
satellitari 61
15.5.4 https://it.wikipedia.org/wiki/Rete_satellitare 62
15.5.5 Comunicazioni
elettriche 62
15.5.6 Comunicazioni
ottiche 62
15.5.7 Reti mobili
cellulari 62
15.5.8 Internet 62
15.5.9 Local area network 64
15.5.10 Sistemi di
radiolocalizzazione e navigazione 65
15.6 Telecomunicazioni e
società 65
15.6.1 Microeconomico 65
15.6.2 Macroeconomico 65
15.7 Enti regolatori 66
15.7.1 Organismi
internazionali 66
15.7.2 In Italia 66
16 I processi della
civiltà – Focus su web, nuovi media e altri aspetti collegati 66
17 Web 3.0 verso
l’intelligenza 67
17.1 Storia 67
17.2 Dibattiti sul Web
3.0 67
17.2.1 Trasformare il Web
in un database 67
17.2.2 Un percorso
evolutivo verso l'intelligenza artificiale 68
17.2.3 La realizzazione del
Web semantico e del SOA 68
18 Web semantico 68
18.1 Introduzione 68
18.2 I primi linguaggi:
RDF, N3 69
18.2.1 Soluzione grafica 70
18.3 OWL 70
18.4 Ontology Web
Language (OWL) 70
18.5 Ontologia 71
18.6 Modalità di impiego 71
18.7 Web semantico e
gestione della conoscenza 72
18.8 https://it.wikipedia.org/wiki/Knowledge_management 73
18.9 Prospettive per il
futuro del web semantico 73
18.9.1 Agenti semantici 74
19 Il web invisibile 74
19.1 Composizione 74
19.2 Accesso al Web
invisibile 74
19.3 Voci correlate 75
19.4 Deep Web, cosa
vende la “rete invisibile”: Il Fatto quotidiano 2015 04 10 75
20 Cloud
computing 76
20.1 Cloud
computing 76
20.2 Introduzione 76
20.3 Funzioni 76
20.4 Casi d'uso 77
20.5 Architettura 77
20.6 Problematiche,
rischi e critiche 77
21 I media in genere 78
21.1 https://it.wikipedia.org/wiki/Mezzo_di_comunicazione_di_massa 78
21.2 Etimologia e uso
del termine 79
21.3 Definizione 79
21.4 Tipi di media di
massa 79
21.5 Storia 80
21.6 I media e la democrazia 81
21.7 Internet ed i mezzi
di comunicazione di massa 81
21.8 Problematiche dei
media di massa 81
21.8.1 I mezzi di
comunicazione di massa come agenti di socializzazione 82
21.8.2 La televisione è una
cattiva maestra (Pasolini e Popper) 82
21.8.3 De Kerckhove e le
"psicotecnologie" 84
22 Social media 84
22.1 Differenze rispetto
ai media industriali 85
22.2 Divulgazione delle
informazioni e interazione umana 85
22.3 Descrizione 86
22.4 Esempi 86
23 Servizio di rete
sociale 88
23.1 Evoluzione 88
23.2 Funzionamento 89
23.3 Diritto d'autore 89
23.4 Reti sociali 90
23.5 Voci correlate 90
24 Nuovi media 90
24.1 Caratteristiche dei
nuovi media 91
24.2 I formati dei nuovi
media 91
24.3 I nuovi media nella
didattica 92
24.4 Analizzare i nuovi
media 92
24.5 Cosa viene
classificato come nuovo medium 92
25 Cellulari e la
mobilità come processo 92
25.1 Telefono cellulare 92
25.2 Storia 93
25.2.1 L'invenzione 93
25.2.2 L'evoluzione della
telefonia cellulare 93
25.2.3 Evoluzione tecnica 93
25.2.4 La diffusione 94
25.3 Caratteristiche
generali 94
25.4 Funzionalità di
supporto 95
25.5 Problemi connessi
all'uso dei dispositivi 96
25.5.1 Danni diretti alla
salute 96
25.5.2 Radiazione
elettromagnetica 96
26 I motori di
ricerca – media a tutti gli effetti 97
26.1 Motori di ricerca
per il web 97
26.2 Le fasi 98
26.2.1 https://it.wikipedia.org/wiki/Crawler 98
26.2.2 Catalogazione 98
26.2.3 Risposta 98
26.3 Risultati
sponsorizzati 98
26.4 Raffinazione della
ricerca 99
26.5 Motori di ricerca
più utilizzati 99
26.6 Prospettive di
sviluppo 100
26.7 Information
retrival – Web semantico 100
26.8 Voci correlate 100
27 Teoria della
comunicazione 100
27.1 Definizioni 100
27.2 Il principio di
Shannon e Weaver 101
27.3 Jakobson e le sei
funzioni della comunicazione 101
27.4 M.A.K. Halliday e
le tre funzioni fondamentali nel linguaggio dell'adulto 102
27.5 Comunicazione
narrativa 102
27.6 Comunicare in
sociologia, etnografia e antropologia 102
27.7 Comunicare in
psicologia 103
27.8 Teoria della
comunicazione in pedagogia 103
27.9 Comunicazione e
mass-media 103
28 Cosa sono i
messaggi, come si veicolano, quanto pesano. Bit, Qbit, informatica quantistica
e altro. 104
28.1 I Bit -Il
significato del bit 104
28.2 Il bit come
quantità di informazione 104
28.3 Il bit come cifra
binaria 104
28.4 Il qubit 105
28.5 L'unità di
informazione codificata 105
28.6 Computer
quantistico 105
28.7 Proprietà
quantistiche del Qbit : entanglement e interferenza (sovrapposizione) 105
28.8 Proprietà del qubit 106
28.8.1 Il qubit è un
vettore 106
28.8.2 Quante informazioni
possono essere rappresentate da un qubit? 107
28.8.3 Sovrapposizione e
entanglement nell'informatica quantistica 107
28.8.4 Rappresentazione
geometrica del qubit 107
28.9 Informatica
quantistica 107
28.10 Origini
dell’informatica quantistica 107
28.11 Principi
dell'informatica quantistica 108
28.12 Approcci al qubit 108
28.13 Critiche al Qbit 109
28.14 Gravità quantistica 109
28.14.1 Introduzione 109
28.14.2 Aspetti storici 109
28.14.3 L'incompatibilità tra
meccanica quantistica e relatività generale 110
28.15 Teoria delle
Stringhe - Accenni 111
28.15.1 Introduzione 111
28.15.2 Storia 112
28.15.3 Proprietà principali 113
28.15.4 Dualità 114
28.15.5 Dimensioni Extra 115
28.15.6 Problemi 116
28.15.7 Verificabilità 116
28.15.8 Falsificabilità 116
28.15.9 Un catalogo
(pressoché) infinito di universi possibili 116
28.15.10 Possibili prove 117
28.15.11 Anisotropie nel fondo
cosmico e stringhe cosmiche 117
28.16 A questo punto ci
chiediamo: cosa è il peso ? E quanto pesa un pensiero o anima ? 117
28.16.1 Peso e massa 117
28.16.2 Approssimazione della
forza peso 117
28.17 Natura della forza
gravitazionale 118
28.18 Supergravità -
Gravifotone 119
28.19 Gravifotone e
graviscalare 119
28.20 La teoria dei 21
grammi 119
28.21 In conclusione 120
29 Altri fattori culturali
- Le sintesi di Clò 120
29.1 Istruzione 120
29.2 Istruzione
pubblica, scolarizzazione, alfabetizzazione 120
29.3 Educazione 121
29.3.1 Indice 122
29.4 Letteratura 122
29.4.1 Indice 122
29.5 Religione 123
29.5.1 Indice 124
29.6 Editoria 124
29.6.1 Indice 125
29.7 Musica 125
29.7.1 Indice 126
29.8 Televisione 127
29.8.1 Aspetti sociali ed
effetti sui bambini 127
29.8.2 Caratteristiche
tecniche principali 128
29.9 Cinema 128
29.9.1 Teorie del cinema 128
29.10 Videogiochi 130
29.11 Indice 130
29.11.1 Nuovo fenomeno
culturale – medium unico 131
29.11.2 Peculiarità del
medium 131
29.11.3 Età dei
videogiocatori 132
29.11.4 Internet e
"intelligenza connettiva" 132
29.12 Studi sulle
conseguenze psicologiche 133
29.12.1 Istigazione a
comportamenti aggressivi 133
29.12.2 Stimolazione del
cervello 133
29.12.3 Disturbi alla memoria
e all'apprendimento 134
30 Scienze cognitive
e neurali – dai fattori culturali alla mente 134
30.1 Descrizione 134
30.2 Cenni storici 134
30.3 Modelli cognitivi 135
30.4 La revisione degli
anni '70 136
30.5 Il nuovo
orientamento 136
30.6 Il cognitivismo
oggi 136
30.7 Voci correlate 137
31 Neuroscienze 137
31.1 Le neuroscienze
moderne 138
31.2 Neuroscienze
molecolari e cellulari 139
31.3 Circuiti neurali e
sistemi 139
31.4 Neuroscienze cognitive
e comportamentali 139
31.5 Ricerca
traslazionale e medicina 140
31.6 Maggiori branche
delle neuroscienze 140
31.7 Altre discipline
connesse, sottodiscipline 142
32 Filosofia della
mente 142
32.1 Descrizione 142
32.2 Problema
mente-corpo 144
32.3 Orientamenti
teorici e correnti 145
33 Lo schema della
complessita’ secondo Clò – memi da qbit 145
33.1 Schèma –
Vocabolario treccani 149
34 Grande Fratello
(1984) 150
35 Intelligence 150
35.1 Le fasi 151
35.2 Le agenzie 152
35.3 L' agente di
intelligence 152
35.4 Tipologie
dell'attività 152
35.5 COMINT:
Communications intelligence 152
35.5.1 Intercettazione di
messaggi vocali 152
35.5.2 Intercettazione di
messaggi non vocali 153
35.5.3 Monitoraggio di
comunicazioni amiche 153
35.6 ELINT: Electronic
intelligence 153
35.7 HUMINT:
Human intelligence 154
35.8 IMINT:
Imagery intelligence 155
35.8.1 Fotografia aerea 155
35.8.2 Satelliti 156
35.9 SIGINT: Signals
intelligence 157
35.10 TECHINT:
Technical intelligence 157
35.11 OSINT:
Open Source intelligence 157
35.11.1 Descrizione 157
35.11.2 Rilievo 158
35.12 MASINT:
Measurement and Signature intelligence 159
35.13 ACINT:
Acoustics intelligence 159
36 L’opinione di Clò
- Apologia del Grande Fratello 159
36.1 Chi controlla i
controllori 161
37 per concludere 161
37.1 La cultura e il
sistema di valori della civiltà dell’intelletto 161
37.2 Questo non è un
paese per vecchi (Film fratelli Coen) 162
37.3 Rete, cervello,
universo 162
Premessa
Le 4 sezioni di Clò
Questa è la quarta sezione in una
ideale prosecuzione di :
- 2015 04 03 - Il Mondo di Clò - L’uomo economico, l’economia pratica, e la Revoluzione Perenne
- 2015 05 25 - La Storia dell' altro mondo di Clò - Più (co)scienza pe’ tutti. Fantascienza con logica, innovazione e proprietà intellettuale. Un caso pratico
- 2015 05 31- Il tempo e la Synvoluzione chirurgica. Antagonismo e nanorivoluzione. Un percorso spazio temporale in potenza
Possiamo anche sintetizzare ulteriormente dicendo che dopo
1.
L’economia del mondo
2.
L’evoluzione della (co)scienza
3.
Il tempo del cambiamento
arriviamo adesso alla questione della cultura della civiltà
in costruzione.
Quella dell’intelletto.
Vedremo che questi quattro scritti si danno uno scopo ben
preciso, inserito nel contesto di informazione, comunicazione e pensiero in
genere : si propongono come miniguida pratica alla complessità.
Si deve dunque considerare la scrittura e lettura come
strumentale al degli scritti radicamento, in un senso molto preciso che vedremo
alla fine.
I temi della sezione sono, ancora una volta, di un portata
talmente ampia da non potere essere esaurienti.
Intendiamo dunque dare un visione epifanica su alcuni importanti
macro aspetti, visione che serva da complemento a quelle fornite nelle prime 3
sezioni.
E’ quindi nostra intenzione fare una cosa molto semplice:
seminare solo alcuni semi, che possano servire da apripista per percorsi di
sviluppo ulteriori e che fungano da “elementi quadro” per capire di cosa si
parla.
Il valore aggiunto di tutta la trattazione, dunque, è quello
di fornire un quadro di larghissima massima su come si debba intendere in senso
lato una “Civiltà dell’intelletto vista da Clò”.
Ripetendoci ancora una volta, possiamo dire che abbiamo così
parlato della nostra visione di :
1.
L’economia del mondo
2.
L’evoluzione della (co)scienza
3.
Il tempo del cambiamento
4.
Il seme della civiltà
Modalità di lettura
Sulla lettura, infine, si suggerisce il solito “volo a
planare”.
Molte sezioni sono tratte da Wikipedia, e possono anche
essere sorvolate.
Alcune sono davvero ostiche, ma almeno il “guardarle” rende
bene l’idea della complessità.
Abbiamo adottato una tecnica di “riporto” di testi
Wikipedia, in alcuni casi evidenziando in colore rosso i caratteri di alcuni
passaggi ritenuti indicativi.
L’intento generale di fornire un quadro complessivo degli
argomenti e delle connessioni che li lega, resterà comunque, anche senza
leggere o comprendere tutto.
Bibliografia
Oltre a Wikipedia, ci siamo ovviamente riferiti ad alcuni
libri.
Li elenchiamo qui, invece che a fine libro come si fa
d’abitudine, perché fanno parte integrante del processo con cui si è formata la
tetralogia del mondo di Clò.
Vederli subito, invece che relegati dove nessuno li guarda,
rende ancora una volta l’idea della complessità.
Andrebbero poi considerati anche i libri già citati come
fonti di ispirazione delle 3 sessioni precedenti.
- www.bur.eu - La Rete della Vita - F.Capra
- https://it.wikipedia.org - Il punto di svolta - F. Capra
- https://books.google.it - L'informazione - J. Gleick
- www.rizzoli.eu - Il disegno della vita - C. Venter
- https://books.google.it - Gli ingranaggi di Dio - Dal caos molecolare alla Vita - P. Hoffman
- http://www.lescienze.it - Il futuro della mente - M. Kaku
- www.carocci.it - Staminali - Monti Bottifiglia Redi
- http://www.ibs.it - Computer e cervello - JV Neumann
- http://www.adelphi.it - Cervelli che contano - G.Vallortigara, N.Panciera
- http://www.adelphi.it - La strana teoria della luce e della materia - R. Feynman
- http://www.ibs.it Bolati Boringhieri - Oltre la particella di Dio - Lederman Hill
- www.bollatiboringhier.it - La fisica dei perplessi - L'incredibile mondo dei quanti - Al-Khalili
- http://www.lescienze.it - Una coscienza - C. Koch
- https://books.google.it - Il secondo cervello - Utet - Gershon
- http://www.lescienze.it - Geni cellule e cervelli - Rose Rose
La cultura e la civilta’ (dell’intelletto)
Crescita culturale e complessità del concetto
Nella terza sezione delle 4 di cui all’inizio, abbiamo
parlato dell’importanza degli antagonismi per la crescita di una civiltà poiché
essi servono a stimolare reazioni in quei casi in cui lo status quo sia rigido
su se stesso.
La domanda da porsi adesso è : più in genere come altro
evolviamo la cultura ? Come cresce ?
E cosa è l’Evoluzione, in particolare quella in ambito della
coscienza.
Ne parleremo meglio in un paragarfo seguente ad hoc, per ora
teniamo a mente l’idea.
Se accettiamo il principio delle mutazioni gentiche come
base dei salti evolutivi biologici, cosa c’è di corrispondente che fa evolvere
la cultura nella pratica ?
Gli antagonismi sono come delle specie di salti genetici sociali
oppure dobbiamo considerare altri fattori ?
Proviamo a guardare la questione da un’altra prospettiva.
Come mai da decine di millenni il cervello umano è già
costruito come è oggi, eppure ne usiamo una porzione minoritaria ?
A cosa serve quell’80% che non usiamo?
Una risposta possibile è che quello sia predisposto proprio
a ricevere “intelligenza” in flussi di informazioni esogene, non diversamente
da una pianta che riceva mutazioni che la rendano ipertrofica.
Per fare questo, servirebbero degli equivalenti informativi dei geni. Esistono.
Ma prima di accennare a questi “equivalenti geni”, i “memi”,
concludiamo dicendo che la trattazione seguente spazia, per lo più molto in
superficie, tra :
- Teorie sociologiche
- Teoria della complessità
- Teoria delle reti
- Neuroscienze
- Cibernetica
- Struttura hardware delle telecomunicazioni
- Sistemi di telecomunicazioni
- Processi della civiltà con focus particolare su web e media
- Teoria delle comunicazioni
- Fisica delle comunicazioni
- Controllo di tutti questi sistemi
- Altro
Ovviamente è nel complesso un trattazione estremamente
superficiale, ma meno male che grazie a Wikipedia si è potuto dare un accenno a
tanti aspetti che fanno parte della stessa realtà.
In questo modo risulterà chiaro che parlare di cultura e di
civiltà, in se stesse, non vuol dire niente.
La cultura, infatti, appare in tutta la sua essenza come
sistema adattivo complesso.
Memi e Memetica – da Wikipedia
Tali “equivalenti geni” nella realtà esistono, e sono noti come Meme, oggetto di studi della
memetica.
Il meme (dall'inglese
meme, dal greco mímēma «imitazione») è un'entità consistente in
una informazione
riconoscibile dall'intelletto, relativa alla cultura umana che è replicabile
da una mente o un
supporto simbolico
di memoria, per esempio un libro, ad un'altra
mente o supporto.
In termini più specifici, un meme sarebbe "un'unità
auto-propagantesi" di evoluzione culturale,
analoga a ciò che il gene
è per la genetica
quindi un elemento di una cultura o civiltà trasmesso da mezzi non genetici,
soprattutto per imitazione.[1]
La memetica è lo studio semi-formale dei memi e dei
modelli evoluzionistici che spiegano la loro diffusione.
Può essere considerata a pieno titolo come una protoscienza
interdisciplinare che indaga i modelli evolutivi sul trasferimento di
informazioni, di conoscenza e delle preferenze culturali basati
sull'intuitivo concetto di meme.
Più in generale la memetica è un approccio sistemico (systemics)
e socio-cognitivo legato esclusivamente con le
proprietà sinergetiche
dei sistemi/agenti intelligenti e loro società.
La memetica ipotizza che, analogamente ai modelli standard
biologici che spiegano la somiglianza fra generazioni con i geni, così si possono
spiegare le "eredità culturali" attraverso replicatori chiamati memi.
Tutto ciò che può essere definito cultura è certamente
diverso dal patrimonio genetico, ma in comune con questo ha la capacità di
trasmettersi attraverso individui, anche se con modalità di trasmissione
differenti.
La teoria della memetica sarà esposta più avanti.
Cosa è la cultura ?
L'utilizzo di tale termine è stato poi esteso a quei
comportamenti che imponevano una "cura verso gli dei", da cui il
termine "culto"
e a indicare un insieme di conoscenze.
Oggi si può dare una definizione generale di cultura,
intendendola come un sistema di saperi, opinioni, credenze, costumi e
comportamenti che caratterizzano un gruppo umano particolare;
un'eredità storica che nel suo insieme definisce i rapporti
all'interno di quel gruppo sociale e quelli con il mondo esterno.
In sintesi : il concetto moderno di cultura si può intendere
come quell'insieme di conoscenze e di pratiche acquisite che vengono
trasmesse di generazione in generazione.
E la civiltà ?
Il termine Civiltà deriva dal latino
civilĭtas,[1] a
sua volta derivato dall'aggettivo civilis, da civis
("cittadino"), a sua volta derivante da civitas (città, intesa
come agglomerato sociale di individui e non come agglomerato urbano).
In questo ambito indicava dunque l'insieme delle qualità e
delle caratteristiche del membro di una comunità
cittadina, nel senso di buone maniere cittadine contrapposte a rusticitas
la rozzezza degli abitanti della campagna; concetto che in realtà voleva
discernere l'organizzazione democratica dello Stato civile da quella
individualistica ed autarchica della vita nelle campagne.
Con entrambi i significati il termine passò nella lingua
italiana nel Trecento. A partire dal Rinascimento,
il significato iniziò ad includere un giudizio di valore, relativo alla
superiorità del proprio modo di vita, considerato più progredito, rispetto a
quello di altre e differenti culture, sia antiche, sia extraeuropee, la
conoscenza delle quali si andava diffondendo in Europa.
Avvicinandosi molto al termine di "cultura"
cominciò inoltre ad indicare le caratteristiche (idee, valori, tradizioni)
proprie di un popolo in un particolare momento della sua storia.
In italiano il termine indica attualmente l'insieme degli
aspetti culturali e di organizzazione politica e sociale di una popolazione; un
significato affine indica invece lo stadio a cui una certa popolazione si trova
in un determinato momento e si collega alla vecchia idea di una continua
evoluzione verso forme sempre più alte di progresso sociale e tecnologico.
Nel primo significato il termine è quasi sinonimo di "cultura",
nell'accezione riguardante il patrimonio delle realizzazioni artistiche e
scientifiche di un popolo in una determinata epoca (in senso antropologico
l'insieme delle manifestazioni della vita spirituale e materiale di una
comunità).
Nel secondo significato invece se ne differenzia tenendo ad
assumere un significato più universale, di generale progresso dell'umanità.
La visione del mondo e il sistema di valori da “il mondo di Clò”
Dobbiamo ripetere quanto già detto in precedenza.
Questa che segue è una ripresa della prima sezione di questo
libro, quella a titolo “il mondo di Clò”, sul tema della cultura.
Eravamo stati obbligatoriamente vaghi, con un rimando ad
alcuni valori, parte di un sistema alternativo a quello in cui viviamo.
Alla fine apparirà ancora più chiaro che la nostra non era
una definizione di cultura, ma solo un accenno a qualche spunto.
---------------
Testo da “il mondo di
Clò”
In una visione del mondo la base di partenza è il sistema di
valori da condividere.
Come in un arcipelago, ci sono tante isole indipendenti ma
connesse: persone viaggeranno da un’isola a un’altra, merci viaggeranno,
turisti arriveranno, pesci vagheranno e così via.
Tutti insieme, questi valori costituiscono la palafitta su
cui reggere il mondo.
Ogni valore, da solo, non basta.
Mentre tutti insieme fanno una civiltà.
Quelli che seguono sono alcuni dei principali di questi
valori, in ambito socio-economico.
La lista non è esaustiva, anzi.
Più cresce la cultura di un civiltà, più elabora valori che
nel tempo potranno rivelarsi essere stati fondanti.
Quelli che seguono, sono alcuni principali pilastri ad oggi
ritenuti fondanti.
- La missione di Stati e Metastati e il metodo relativo
- La redistribuzione della ricchezza e il soft landing globale
- La delocalizzazione degli investimenti
- Cambiare il modello di spesa – Il worldfunding
- Globalizzazione e connessioni
- La cooptazione degli investimenti e la scuola del profitto
- La moneta fa girare l’economia, non e’ economia
- La finanziarizzazione si sgonfierà da sola
- Cambiare il modo in cui si calcola il profitto
- Il progresso è revoluzione della conoscenza
- La revoluzione demografica
- La Revoluzione Perenne
Riferendoci in particolare a www.globalrights.info abbiamo anche
notato quanto segue.
Incredibile come assuma nuova prospettiva una informazione,
come il nome di un sito web, quando le si restituisce una decompressione
semantica.
E’ il motivo per cui i tweet sono un importante strumento di
veicolazione di connessioni informative ma al tempo stesso richiedono una
decriptazione che ne permetta la deflagrazione dei contenuti impliciti o
altrove allocati.
In qualche modo sono come dei comandi di Imprinting .
Di attivazione di processi cognitivi della Rete neurale globale.
Ma sotto di essi deve esistere la conoscenza vera, quella “ unzippata ” per intenderci
Inoltre un fondamentale principio di fondo per ottenere una
efficiente allocazione delle risorse, in particolare dell’energia, è non fare
due volte la stessa cosa.
Per fare questo, spesso bisogna dotarsi di sufficiente
umiltà e riconoscere chi sappia, o abbia fatto, cose meglio di noi stessi.
Sulla questione del sistema di valori o di Diritti Globali che dir si voglia, c’è un riferimento che Clò
segue da tempo.
E’ una fonte di informazione, in italiano, inglese ma anche
in spagnolo, che si distingue rispetto a quei media “deviati” descritti in Sui media fiduciarie.
E’un esempio di cosa fare per avere sott’occhio un quadro
generale di cosa succeda nel mondo, osservato con occhio critico e competenza;
è una ottima fonte.
Ovviamente non è il solo esempio.
Ma serve a dire che l’informazione è indipendente e
autonoma, e risponde bene alle esigenze di informazione da soddisfare per
arrivare a condividere un sistema di valori fondante, coerente con la visione del
mondo descritta da Clò.
---------------
Partendo da queste considerazioni, in questa sede vogliamo
cercare di estenderne alcuni aspetti.
Cultura: complessità autoemergenza e autoaggregazione
Abbiamo già parlato più volte di sistemi complessi, e di alcune
loro caratteristiche fondamentali che sono l’autoemergenza o autoconfigurazione.
Vogliamo fare un breve riepilogo, sempre da Wikipedia, di
alcuni concetti e autori chiave.
Sistema complesso
«Il tutto è maggiore della somma
delle parti», diceva Aristotele
E wikipedia recita : in fisica un sistema
complesso è un sistema in cui le singole parti sono interessate da
interazioni locali, di breve raggio d'azione, che provocano cambiamenti nella
struttura complessiva. La scienza può rilevare le modifiche locali, ma non può
prevedere uno stato futuro del sistema considerato nella sua interezza. Come dice Edgar
Morin "nei sistemi complessi l’imprevedibilità e il paradosso sono
sempre presenti ed alcune cose rimarranno sconosciute".
Eppure, nonostante questa imprevedibilità, i sistemi complessi manifestano due caratteristiche
incredibili : i comportamenti emergenti e l’autoorganizzazione (Ndr)
Comportamento emergente
Il comportamento emergente è la situazione nella
quale un sistema
esibisce proprietà inspiegabili sulla base delle leggi che governano
le sue componenti prese singolarmente.
Esso scaturisce da interazioni non-lineari
tra le componenti stesse.[1]
Quantunque sia più facilmente riscontrabile in sistemi di organismi
viventi o di individui sociali oppure ancora in sistemi economici,
diversamente da una credenza oggi diffusa l'emergenza si manifesta anche
in contesti molto più elementari, come ad esempio la fisica delle particelle[2]
e la fisica atomica.[3]
Essa può essere definita anche come il processo di
formazione di schemi complessi a partire da regole più semplici, e una
esemplificazione può ottenersi osservando il gioco
della vita di John Conway, nel quale poche semplici regole fissate
per pochi individui di base possono condurre a evoluzioni assai complesse.
Auto organizzazione
Nella teoria dei sistemi, l'auto-organizzazione
è principalmente una forma di sviluppo del sistema
attraverso influenze ordinanti e limitative provenienti dagli stessi elementi
che costituiscono il sistema oggetto di studio e che permettono di raggiungere
un maggior livello di complessità.
Questo concetto riveste notevole importanza pratica in
ambito multidisciplinare, interessando vasti campi sia delle scienze
naturali che delle scienze umane. In cibernetica
una applicazione pratica consiste nella Self-Organizing Map.
Normalmente, i sistemi auto-organizzanti esibiscono
proprietà emergenti.
La complessità di Fritjof Capra
Sulla questione della complessità, credo che non si possa
non citare la posizione “omnidirezionale” di F.Capra.
La biografia di Capra è oramai enciclopedica: sta in https://it.wikipedia.org/wiki/Fritjof_Capra
.
Rimandiamo anche alla bibliografia di questa quarta sezione,
per altri riferimenti da consultare.
Ma su tanti autori e libri citati o no, uno che bene
risponde al bisogno di farsi un’idea globale, e non solo monoscientifica, della
questione della complessità è secondo noi La rete della vita -Fritjof
Capra .
Recita la copertina : Perché l’altruismo è alla base dell’evoluzione.
Che cos’è la vita? Partendo da questo interrogativo
fondamentale il grande fisico Fritjof Capra delinea in questo libro una
prospettiva rivoluzionaria sugli ecosistemi naturali e sugli esseri viventi,
portando alla luce l’incredibile rapporto di interdipendenza tra il singolo
individuo e il sistema di relazioni in cui è immerso.
La somma di queste relazioni, che legano gli universi della
psiche, della biologia e della cultura, è una rete: la rete della vita.
Per vincere le sfide che l’impegnano, e che discendono dallo
sfruttamento selvaggio delle risorse e dalla nevrosi ormai strutturale del
nostro vivere, l’umanità dovrà studiare e comprendere i meccanismi della trama
di relazioni che la circonda, e rendersi infine conto che “la nostra sopravvivenza
dipenderà dal nostro grado di competenza ecologica, dalla nostra capacità di
comprendere i principi dell’ecologia e di vivere in conformità con essi”.
L’informazione di James Gleick
Glieck è già autore di un indicativo https://it.wikipedia.org/wiki/Caos. La
nascita di una nuova scienza
L’altro testo pertinente è quello a questo link https://books.google.it
- L'informazione , e di seguito riassunto.
Ancora alla soglia degli anni quaranta Claude Shannon usava
intelligence per parlare di informazione – un termine che avrebbe cominciato
davvero a diffondersi solo qualche anno più tardi, con la sua Teoria matematica
delle comunicazioni, insieme a una parolina, bit, destinata a diventare una
delle più pervasive dell’ultimo mezzo secolo.
Amata e vituperata, quella parolina segna un punto di
passaggio fondamentale: quando l’informazione diventa una grandezza
quantificabile e misurabile.
Difficile valutarne davvero l’importanza, ma James Gleick ci
prova (con successo), raccogliendo i fili sparsi di una storia che parte da
lontano, dai poemi omerici e dall’invenzione della scrittura e dell’alfabeto,
passando per la lessicografia e i dizionari, i codici crittografici e le
moderne tecnologie della comunicazione (il telegrafo, il telefono, il
calcolatore).
E lungo la strada si incontrano figure chiave, talora
insospettate: i compilatori di antichi dizionari, come l’inglese Robert
Cawdrey, o i curatori dell’Oxford English Dictionary; l’inventore del primo
calcolatore, Charles Babbage; la sua musa, Ada Byron, figlia dell’illustre
poeta; e una serie di altre personalità fondamentali come Samuel Morse con il
suo codice telegrafico, il matematico Alan Turing (con il suo calcolatore
universale ma anche con i suoi lavori di crittanalisi durante la seconda guerra
mondiale), il creatore della teoria dell’informazione Claude Shannon o il fondatore
della cibernetica Norbert Wiener.
Conclude con la vera e propria epoca dell’informazione, il
mondo contemporaneo dove tutti sono, volenti o nolenti, esperti di bit e byte.
Sotto un diluvio di segni e segnali, notizie e immagini,
blog e tweet.
L’informazione, fondendo con grande sapienza narrativa
divulgazione scientifica, racconto biografico, storia delle idee, delle
scoperte e della tecnica, ci dice come siamo arrivati fin qui e quel che ci
attende in futuro.
La cultura complessa, emergente, autorganizzante oppure no, secondo Clò
Pur non essendo noi degli esperti vogliamo dire quanto segue
Quello della cultura è un caso tra i più intricati di
complessità a cui si possa pensare.
Coinvolge aspetti
- di biologia del pensiero e no,
- di schemi del linguaggio,
- di struttura di reti,
- magnetismi terresti e no,
- geolocalizzazione di civiltà materiali,
- di strutture di telecomunicazioni,
- di cibernetica,
- di informatica e
- di tutte le altre variabili che potete immaginare.
E tutte queste si presentano in moltissime varianti.
Il melting pot è veramente stracolmo.
Epure possiamo dire che è vero che esiste una unità minima, parallela
se non precedente al meme, di cui tutto ciò è composto, in particolare nell’era
digitale.
Se tutto è teoricamente riconducibile a informazione di base,
bit e memi, è pur vero che i bit e i memi si aggregano.
Esistono sicuramente processi che ne indirizzano le
aggregazioni, ma di sicuro esiste una parte di componente indipendente che
detti memi seguono a prescindere dalla volontà di ogni Grande Fratello.
E’ questa in teoria una delle basi della civiltà
dell’intelletto: un civiltà in cui l’intelletto sia più forte dei
particolarismi.
Per questo motivo è appropriata l’applicazione del concetto
di comportamento emergente al tema della cultura.
Per questo motivo possiamo anche parlare di cultura in termini
di sua modalità di evoluzione, di cui al capitolo più avanti.
Un salto di conoscenza che fece scalpore, fu quello
derivante dalla pubblicazione nel 1976 di Il gene egoista,
ovvero la teoria dell'evoluzione analizzata dal punto
di vista del gene (che
poi è informazione) anziché da quello dell'individuo.
Questo testo costituì anche un punto di partenza per la
formulazione del concetto di meme.
Sintetizzando, possiamo dire che l’impostazione di base sarebbe
che la nostra funzione di esseri umani sia quella di essere portatori di geni,
vale a dire informazioni, o meglio esemplificando con una nota citazione: “una
gallina è solo il mezzo che un uovo ha di fare un altro uovo”.
E per i memi, cosa possiamo dire al riguardo ?
Se sono le unità conoscitive di base, e se è vero come è
vero che si aggregano, il fine ultimo sarà quello di farli aggregare “bene”.
Ma bene secondo chi ?
E si aggregano davvero da soli, oppure esiste un Grande
Fratello che la instrada in qualche modo ?
La cultura come cresce ? Si evolve ? O viene mutata? E da
chi ?
Queste sono le domande della complessità estrema, che
lasciamo senza risposta.
Mentre rinviamo ad alcuni concetti chiave sull’argomento.
Teoria dell’informazione
La teoria dell'informazione e Claude Shannon
La teoria dell'informazione è
una disciplina dell'informatica e delle telecomunicazioni
che ha come scopo la quantificazione della quantità di dati (ossia di informazione)
in relazione alla loro memorizzazione o trasmissione su un canale in modo affidabile.
La grandezza che misura la quantità
di dati prende il nome di entropia ed è solitamente
espressa come numero di bit
necessari per immagazzinare o trasmettere l'informazione.
Ad esempio, se un alfabeto ha
un'entropia pari a 4 bit, allora, preso un numero sufficiente di parole
costruite con tale alfabeto, in media sono necessari 4 bit per rappresentare
ogni lettera.
L'applicazione dei concetti
fondamentali della teoria dell'informazione include la compressione senza perdite dei file (es. zip), la codifica con
perdita (es. mp3) e
le modulazioni digitali utilizzate nelle trasmissioni ethernet.
La teoria
dell'informazione si pone a metà strada tra la matematica applicata, la statistica,
la fisica applicata, le telecomunicazioni
e l'informatica.
Il suo impatto è stato fondamentale
nelle missioni spaziali, nell'invenzione del CD,
dei telefonini, di Internet,
nello studio della linguistica ed in numerosissimi altri campi.
Panoramica
I concetti
principali alla base della teoria dell'informazione possono essere colti
facendo riferimento ad un semplice esempio: il
linguaggio umano.
In genere, in un linguaggio, le
parole più usate sono più corte di quelle meno usate.
Ad esempio, "ciao" è più
breve di "sostanzioso"; inoltre, anche se a volte non si riescono a
cogliere tutte la parole di un discorso, il senso rimane chiaro.
Lo scopo
della teoria dell'informazione è proprio quello di fornire metodi per comprimere al massimo l'informazione prodotta da
una sorgente eliminando tutta la ridondanza
(si parla di codifica di sorgente), prima di aggiungere un
certo livello di ridondanza in modo mirato, allo scopo di rendere la
comunicazione (o l'archiviazione) più protetta dal rumore (si parla
in questo caso di codifica di canale).
Lo studio di questa teoria, i cui
principi sono già presenti nelle forme di comunicazione umane, ha consentito a
partire dagli anni '40 uno sviluppo incredibile della trasmissione e
dell'archiviazione dell'informazione.
In generale, si considera come
nascita della teoria dell'informazione la pubblicazione del lavoro "A
Mathematical Theory of Communication" (Una teoria matematica della
comunicazione) da parte di Claude
Shannon; i risultati fondamentali presenti nello scritto sono due:
l'enunciazione del Primo teorema di Shannon (o Teorema della
codifica di sorgente), che stabilisce che, in media, il
numero di bit necessari a rappresentare il risultato di un evento stocastico è
pari alla sua entropia, fornendo così un
limite superiore alla possibilità di comprimere dati; il secondo risultato,
noto come Secondo Teorema di
Shannon o Teorema della codifica di canale, stabilisce invece che il
massimo tasso di informazione trasferibile in modo affidabile su un
canale affetto da rumore sta sotto una certa soglia che prende il nome di capacità di canale. La capacità può essere avvicinata
a piacere, utilizzando sistemi di codifica e decodifica opportuni.
La teoria
dell'informazione è strettamente legata ad una serie di discipline pure ed
applicate che sono state studiate ed ingegnerizzate negli ultimi sessant'anni:
sistemi adattivi, intelligenza artificiale, sistemi
complessi, cibernetica, informatica,
apprendimento automatico e molti altri.
La teoria dell'informazione è quindi
un'ampia ed approfondita teoria matematica, con applicazioni ugualmente ampie e
profonde, il cui ambito principale rimane però la teoria della codifica.
La teoria della codifica riguarda lo
studio di metodi pratici, chiamati codici, per
aumentare l'efficienza di una trasmissione e ridurre la probabilità di errore
il più possibile, nei limiti stabiliti e dimostrati da Shannon per un dato
canale; questi codici possono essere divisi in tecniche di compressione dei dati (codifica di sorgente)
e correzione degli errori
(codifica di canale).
Nel secondo caso, sono stati
necessari molti anni prima che fosse possibile ottenere risultati vicini ai
limiti forniti da Shannon.
Una terza classe di codici sono gli
algoritmi di crittografia. oncetti e metodi della teoria dell'informazione sono
infatti utilizzati ampiamente in crittografia
e crittoanalisi.
La teoria dell'informazione è oggi
usata anche nella teoria dei giochi e nello studio dei mercati
azionari, oltre che nella composizione musicale.
Applicazioni
1.1.1 Capacità di canale
Lo studio della comunicazione su un
canale, come ad esempio un cavo Ethernet, è la motivazione prima della nascita della teoria
dell'informazione.
Come sa
chiunque abbia usato un telefono, può accadere che il canale non sia in grado
di trasportare il segnale senza "danneggiarlo"; distorsioni, echi o
rumore sono solo alcuni esempi di corruzione di un segnale che portano ad un
degrado nella qualità della comunicazione.
La domanda
che sorge spontanea è dunque quale sia il massimo tasso (o bitrate) a cui posso sperare di comunicare su un canale
"rumoroso" (ossia che degrada la comunicazione)?
Consideriamo il processo di
comunicare su un canale discreto. Un semplice modello del processo è mostrato
in figura
1.1.2 Teoria delle sorgenti
Quanlunque processo che generi
messaggi successivi può essere considerato una sorgente
di informazione.
Una sorgente
priva di memoria è una sorgente tale per cui ogni messaggio è una variabile
aleatoria indipendente e identicamente distribuita, mentre le proprietà di ergodicità
e stazionarietà impongono vincoli più restrittivi. Tutte
queste sorgenti sono stocastiche.
1.1.3 Teoria dei codici
La teoria dei codici è la più
importante e diretta applicazione della teoria dell'informazione.
Può essere suddivisa in codifica dei codici sorgenti e codifica di canale.
Usando una descrizione statistica dei
dati, la teoria dell'informazione quantifica il numero
dei bit necessari a descrivere i dati, tale quantità è l'entropia
informativa della sorgente.
- Compressione dati (codifica sorgente): ci sono due formulazioni per questo problema:
- compressione senza perdita, quando i dati devono essere ricostruiti in modo esatto
- compressione con perdita allocando i bit necessari a ricostruire i dati all'interno di un intervallo di fedeltà misurato dalla funzione di distorsione. Questo ramo della teoria dell'informazione è detto rate–distortion theory.
- Codici di correzione errori (codifica di canale): mentre la compressione dati ha lo scopo di rimuovere la maggior ridondanza possibile, un codice di correzione per gli errori aggiunge il giusto tipo di ridondanza necessario a trasmettere i dati in modo efficiente ed affidabile su un canale rumoroso.
La suddivisione della teoria dei
codici tra compressione e trasmissione è giustificata dai teoremi di trasmissione
di informazione, che giustificano l'uso dei bit come misura universale
dell'informazione in molti contesti. Comunque, questi teoremi valgono
unicamente nella situazione in cui un utente che trasmette vuole comunicare ad
un utente che riceve. In scenari con più di un mittente o più di un
destinatario, la compressione seguita dalla trasmissione potrebbe non essere
ottimale.
1.1.4 Usi da parte dei servizi segreti ed applicazioni alla sicurezza
I concetti della teoria
dell'informazione sono largamente usati in crittografia
e criptoanalisi.
Per un esempio storico interessante,
vedere il deciban. Shannon stesso ha definito un concetto importante ora
chiamato distanza di unicità.
Basato sulla ridondanza del testo,
cerca di dare la minima quantità di testo cifrato necessario
ad assicurare una decifrabilità unica.
La teoria dell'informazione di
Shannon è estremamente importante al lavoro, molto più di quanto il suo uso in
crittografia indichi.
I servizi
segreti usano la teoria dell'informazione per mantenere segrete le informazioni
riservate e per scoprire il numero massimo possibile di informazioni su di un
avversario in un modo sicuro.
Il teorema di Shannon-Hartley ci fa
credere che mantenere dei segreti è molto più difficile
di quanto si possa credere inizialmente.
In generale,
non è possibile fermare la fuoriuscita di informazioni riservate, ma solo
rallentarla.
Inoltre, al crescere dell persone
hanno accesso all'informazione ed al crescere del tempo che queste persone
devono dedicare al lavoro ed alla revisione di tale informazione, maggiore è la
ridondanza che tale informazione acquisisce.
È
estremamente difficile contenere il flusso di informazioni che hanno alta
ridondanza.
L'inevitabile fuoriuscita di
informazioni riservate è dovuta al fatto psicologico
che ciò che le persone sanno influenza il loro comportamento, anche in
modo molto subdolo.
1.1.5 Genereazione di numeri pseudo-casuali
Un buon esempio di applicazione della
teoria dell'informazione alle comunicazioni nascoste
è la progettazione della codifica dei segnali
del Sistema di Posizionamento Globale.
Il sistema usa un generatore di
numeri pseudocasuali che mette il segnale radio sotto la soglia del rumore.
Quindi un
ascoltatore radio non sarebbe nemmeno in grado di capire che ci fosse un
segnale presente, perché rimarrebbe affogato da varie sorgenti di rumore
(rumore atmosferico o di antenna).
Comunque facendo l'integrale su
un lungo periodo di tempo, usando la sequenza pseudorandomica
"segreta" (ma nota al destinatario), è possibile rilevare il segnale
e capirne le modulazioni.
Nel sistema di posizionamento
globale, il segnale C/A è stato pubblicato pubblicamente come sequenza di 1023
bit, ma la sequenza pseudorandomica usata nel P(Y) rimane segreta.
La stessa
tecnica può essere usata per trasmettere informazioni nascoste usando sistemi a
breve raggio ed aventi bassissima potenza, senza che un nemico si accorga
dell'esistenza del segnale radio.
1.1.6 Steganografia
La steganografia
è una tecnica
che si prefigge di nascondere la comunicazione
tra due interlocutori, infatti il termine è composto appunto dalle parole greche
στεγανός (coperto) e γραφία (scrittura).
Tracce di questa tecnica si hanno già
nell'antica
Grecia: Erodoto
narra l'episodio di Demarato che per avvisare i compatrioti di una possibile
invasione persiana
scrive su di una tavoletta un messaggio da nascondere, poi copre la tavoletta
di cera e sulla cera scrive un messaggio innocuo.
Poiché nell'antichità le tavolette di
cera erano normalmente usate per scrivere testi provvisori, non destò sospetti.[1]
Per una teorizzazione completa di questa tecnica bisogna però attendere il 1499, quando la
steganografia viene teorizzata dall'abate Tritemio
nell'omonimo libro.
1.1.7 Storia Spread spectrum
Vedi anche comunicazioni spread
spectrum.
L'espansione di spettro mediante il salto di frequenza (Frequency-hopping
spread spectrum) è stata inventata nel giugno 1901 da Nikola
Tesla nei brevetti USA 723,188Single
Document e 725,605Single
Document registrati nel marzo 1903. A Tesla venne
l'idea dopo aver presentato il primo sommergibile al mondo radiocomandato, nel
1898, quando fu chiaro che i segnali radio che controllavano il battello
dovevano essere sicuri dall'essere "disturbati, intercettati o messi in
interferenza in qualsiasi modo."
Descrizione
Essenzialmente la espansione di spettro si basa
sulla relazione esistente tra banda di un segnale, il suo modulo e il suo contenuto energetico.
Nei grafici [Grafici Assenti] infatti osserviamo come
l'energia associata ad un segnale aumenta se, a parità di modulo aumentiamo l'occupazione in banda del
segnale.
Lo scopo principale è migliorare il rapporto segnale/rumore eliminando il
maggior numero di interferenze e consentendo
l'utilizzo contemporaneo della stessa gamma di frequenze a più utenti (miglioramento
di efficienza spettrale); altro scopo secondario, mimetizzare il segnale radio trasmesso abbassandone
la potenza specifica e portandolo quindi a confondersi con il rumore radio di fondo, in modo da sfuggire al
rilevamento da parte delle stazioni di intercettazione radio.
Fondamentale per l'utilizzo
delle tecnologie a espansione di spettro utilizzate nella telefonia mobile (CDMA,
TDMA) è l'algoritmo di Viterbi,
che consente di ricostruire l'informazione a partire da un segnale che
si presenta molto simile a rumore bianco.
L'evoluzione culturale ed il meme
Evoluzione e memi
https://it.wikipedia.org/wiki/Meme
: Sono evidenziati in rosso alcuni passaggi chiave
(EN)
« The key to every man is his thought. Sturdy
and defying though he look, he has a helm which he obeys, which is the idea
after which all his facts are classified. He can only be reformed by showing
him a new idea which commands his own. »
|
(IT)
« La
chiave di ogni uomo è il suo pensiero. Benché egli possa apparire saldo e
autonomo, ha un criterio cui obbedisce, che è l'idea in base alla quale
classifica tutte le cose. Può essere cambiato solo mostrandogli una nuova
idea che sovrasti la sua. »
|
Secondo Dawkins le culture possono evolversi in maniera analoga a
come si evolvono le popolazioni e gli organismi viventi.
Molte delle idee che passano da una
generazione alla successiva possono aumentare o
diminuire le possibilità di sopravvivenza della generazione che le
riceve che a sua volta potrà ritrasmetterle.
Ad esempio, più culture possono sviluppare un proprio
progetto ed un proprio metodo per realizzare un utensile, ma quella che avrà
sviluppato i metodi più efficaci avrà più probabilità di prosperare e
svilupparsi sulle altre; col passare del tempo una sempre maggiore parte della
popolazione adotterà quindi tali metodi.
Il progetto dell'utensile agisce quindi in modo simile a come agisce un gene biologico appartenente a certe popolazioni e
non ad altre, guidando con la propria presenza o assenza il futuro di ogni
cultura.
Una caratteristica fondamentale del
meme è quella di venire diffuso per imitazione.
Quando l'imitazione fece la sua comparsa nell'evoluzione
umana, si rivelò essere un buon sistema per aumentare le possibilità di ogni
individuo di riprodursi geneticamente.
Forse una selezione sessuale dei migliori imitatori fornì
successivamente una spinta evoluzionistica verso i cervelli meglio capaci di
imitare.
In questo contesto, imitare
significa sostanzialmente importare informazione dall'ambiente nel proprio
cervello tramite gli organi di senso.
L'ambiente può essere inanimato
- come un libro - o più spesso un altro essere umano,
da cui l'informazione viene presa e ri-eseguita.
Le fonti inanimate di informazione sono chiamate sistemi
di ritenzione.
Dal momento che i memi si propagano
per imitazione da un individuo ad un altro, essi non possono esistere senza
cervelli sufficientemente sviluppati da discernere gli elementi fondamentali
del comportamento da copiare (cosa copiare e perché) e da capirne i potenziali
vantaggi.
I memi (o comportamenti acquisiti e propagati per
imitazione) sono stati osservati solo in poche specie sulla Terra, tra cui gli ominidi, i delfini e gli uccelli che
apprendono il canto dai loro genitori.
È controversa l'idea che possano esistere memi meno
complessi in altre specie - ad esempio, comportamenti imitativi indotti artificialmente
nei cefalopodi
e nei ratti.
Sia i geni che i memi possono
sopravvivere più a lungo del singolo organismo che
li reca in sé.
Un gene utile (ad esempio un gene per una robusta dentatura
nei leoni)
può rimanere inalterato nel corredo genetico per centinaia di migliaia di anni.
Un meme utile può propagarsi da un individuo ad un altro
per tempi molto lunghi dopo la sua comparsa.
A differenza dei geni, il cui
successo è legato alla loro utilità per la sopravvivenza dell'organismo
che lo reca in sé, il successo di un meme è legato a
fattori più sottili (quali la critica, la
persuasione, la moda o la pressione del gruppo) che non sono stati
ancora ampiamente indagati.
Tra le tecniche con cui un meme si
propaga si annoverano:
- la dimostrazione che un'idea o una tecnica sono utili (ad esempio, un falegname mostra ad un apprendista che due pezzi di legno si uniscono quando vengono messi insieme usando un chiodo ed un martello)
- l'identificazione di un problema che non ha soluzione (ad esempio, cosa succede - se mai succede qualcosa - dopo la morte?) ed il proporne una soluzione (ad esempio, si va in paradiso o all'inferno). La soluzione non può essere dimostrata sbagliata ed è quindi sufficientemente adatta per una propagazione successiva.
- la minaccia verso coloro che non diffondono un meme (ad esempio, non fare questo e andrai all'inferno) e la ricompensa verso coloro che lo diffondono (fa' questo e andrai in paradiso)
- il richiedere che chi possiede un meme sia gentile col prossimo e dedichi molto tempo alla riflessione ed al dialogo su di esso (ad esempio un prete che faccia poco altro oltre a predicare la propria religione)
Al pari di un gene, un meme non
persegue alcuno scopo prefisso né vuole nulla.
Semplicemente, o viene replicato,
oppure no.
L'evoluzione dei memi: selezione "artificiale"
L'evoluzione non richiede solo l'ereditarietà e la selezione naturale,
ma anche la mutazione ed anche i memi hanno questa
proprietà.
Le idee che vengono trasmesse
possono subire modifiche che si accumulano nel tempo.
Questi cambiamenti nel "fenotipo"
(l'informazione nei cervelli o in altri sistemi di
ritenzione) sono anch'essi trasmessi.
In altre parole, a differenza dell'evoluzione genetica, sono sia darwiniani che lamarckiani.
Si prenda ad esempio, una leggenda o un mito, che spesso
vengono abbelliti nel ri-raccontarli in modo che siano più memorabili e quindi
più probabilmente raccontati di nuovo.
Esempi analoghi più moderni possono essere le cosiddette
"leggende urbane" o certi falsi messaggi che girano su internet.
Ciò che contraddistingue un meme da
altre idee che vengono trasmesse da una persona ad un'altra è che la
probabilità di un meme di venire trasmesso dipende da proprietà intrinseche del
meme stesso, piuttosto che dalla natura delle persone (o delle memorie)
coinvolte nella trasmissione.
Ad esempio, la forma di un utensile
si riflette sulla sua efficacia indipendentemente dalle abitudini delle diverse
persone che lo usano.
Miti
e leggende
forniscono spesso insegnamenti morali o svelano misteri, questo li rende più
adatti a venire raccontati da persone aventi scopi molto diversi tra loro
rispetto a storie simili ma prive di questi elementi.
Quanto è "naturale" questo tipo di selezione?
Il rapporto del meme nei confronti di altre teorie
evolutive (ad esempio quelle che separano i fattori ecologici, sessuali, etici
e morali e non riservano alla "cultura" un ruolo separato o
particolare) sembra quello di essere come una sorta di "pretendente al
trono" - che cerca di spiegare queste idee più specifiche di evoluzione e
di cultura - senza alcun modello da verificare.
Questo, agli occhi di molti scienziati, riduce la cultura
ad uno tra i tanti elementi della vita umana.
Una famosa osservazione di questo tipo fu quella di Margaret
Thatcher, quando bruscamente si trovò a dire che "la società non
esiste".
Evidentemente, dove altri vedono una "cultura" o
"società" in senso lato, lei vedeva corredi di fattori che regolano
la sopravvivenza, la seduzione e le scelte morali, specifici di ogni individuo,
coppia o famiglia.
La forma assunta dai memi nel cervello
Nel 1981, i biologi Charles J. Lumsden ed Edward Osborne Wilson
pubblicarono il libro Genes, Mind, and Culture: The Coevolutionary Process
in cui presentano la teoria di una co-evoluzione di
geni e cultura.
Evidenziarono che le unità
fondamentali della cultura devono corrispondere biologicamente a delle reti di neuroni che fungono da nodi della memoria
semantica.
Wilson successivamente adottò il
termine meme come migliore nome possibile per definire tali unità
fondamentali di eredità culturale e sviluppò il ruolo fondamentale dei
memi nell'unificare le scienze naturali e le scienze sociali nel suo libro Consilience:
The Unity of Knowledge.
Analogie biologiche: virus memetici?
In modo molto simile a come il concetto
del gene egoista possa essere usato come punto di vista per
meglio capire e studiare l'evoluzione biologica (“una gallina è solo il modo che un uovo ha di fare un altro uovo”
Ndr), il concetto di meme può essere usato per capire
meglio alcuni aspetti altrimenti intricati della cultura umana (e anche
dei comportamenti acquisiti degli altri animali).
Tuttavia, se questo "meglio" non è sufficiente
per delle sperimentazioni empiriche, rimane il dubbio se il concetto di meme
sia sufficientemente valido dal punto di vista scientifico.
La memetica è quindi una scienza nella sua infanzia e
questo la rende una protoscienza e non una pseudoscienza.
Una controversa applicazione dell'analogia del meme egoista è l'idea che alcuni gruppi di memi possano comportarsi come "virus
memetici": gruppi di idee che si comportano come forme di vita
indipendenti e continuano ad essere trasmessi
anche a spese dei loro ospiti solo perché sono adatti a venire ritrasmessi.
È stato suggerito che le religioni
evangeliche ed i culti
si comportino in questo modo, includendo la loro
stessa trasmissione tra le virtù morali insieme ad altri convincimenti, anche
se questi ultimi non assumono grande valore agli occhi del credente.
Altri notano altresì che la quasi totale diffusione di idee
religiose tra i gruppi umani provi che esse debbano avere un qualche valore
morale, etico, sessuale o ecologico.
Molte, ad esempio, sono le
religioni che invitano alla pace ed alla cooperazione tra i loro fedeli
("Non uccidere") e che quindi possono
promuovere la sopravvivenza biologica dei gruppi che recano in sé questi memi.
Resistenza al meme
Karl Popper sostenne di sì, usando le parole più forti
possibile: "L'intelligenza è utile per la
sopravvivenza se ci permette di estinguere una cattiva idea prima che la
cattiva idea estingua noi".
Tuttavia la resistenza ai memi è
tutt'altro che naturale, nonostante la società attuale (che fra l'altro
può anch'essa essere considerata un meme) spinga all'acquisizione di questa.
L'ignoranza in alcune culture è
infatti considerata una virtù - in particolare l'ignorare certe
tentazioni che la cultura crede disastrose se perseguite da molti individui.
Internet, forse il vettore memetico definitivo,
sembra ospitare entrambe le sponde di questo dibattito.
Benché ad un osservatore ingenuo sembri ovvio che nessun
utente adulto di internet possa opporsi al suo uso da parte di altri adulti,
nei fatti questo accade basandosi sui criteri più diversi, dall'etica alla
morale.
Si possono salvaguardare le persone
dai memi più pericolosi?
E chi decide?
Principia Cybernetica contiene una[4] ampia lista
di diversi tipi di meme.
Fa anche riferimento ad un saggio di Jaron Lanier[5], molto
critico sull'idea del meme totalitario che assume la superiorità dei
memi sui corpi.
Principia Cybernetica Project
Il Principia Cybernetica Project (PCP) fu ideato nel 1987 dal fisico informatico
e cibernetico Valentin Turchin, la cui
visione antitotalitaria lo costrinse nel 1977 a migrare dall'URSS
agli Stati Uniti. Egli ha sviluppato una filosofia
cibernetica basata sul concetto di "transizione di metasistema" con
implicazioni per l'evoluzione umana, i sistemi politici e i fondamenti della matematica.
Nel 1987 Turchin entrò in contatto con lo statunitense Cliff Joslin, un teorico dei
sistemi e sviluppatore software; quest'ultimo consigliò una struttura a rete
semantica, il "learning web", usando ipertesti ed internet.
Insieme quindi fondarono il PCP scrivendo un "Manifesto cibernetico"
e una mailing-list.
Nel 1990 Francis Heylighen, fisico
belga e scienziato cognitivista, aderì al progetto.
La teoria
Uno degli obiettivi del PCP è quello di sviluppare un "sistema filosofico" completo o "visione
del mondo". Riguardo all'ontologia,
il PCP ritiene che l'essenza dell'universo sia
rappresentata da processi elementari o "azioni".
- "Azione": "In principio c'era l'azione" (Goethe)
- "Mondo" = Volontà + Rappresentazione (Schopenhauer)
La "volontà" si manifesta nell'azione; volontà ed
azione sono inseparabili, si può quindi dire che:
- "Mondo percettibile" = Azione + Rappresentazione
Nella cibernetica si fa astrazione
dei concetti di materia, energia, spazio
e tempo. Resta solo l'interdipendenza fra la varie azioni.
Quando si ignora l' "agente" dell'azione si parla di
"evento". L'universo, per la PCP, è sorto spontaneamente attraverso
l'evoluzione dell'auto-organizzazione, basandosi sul principio darwiniano
della variazione casuale e della selezione naturale.
L'"inizio" è stato
dovuto, molto probabilmente, ad una fluttuazione quantistica del vuoto o dall'incontro tra due stringhe cosmiche (o
"M-brane") che si è poi manifestata nell'evento noto come Big Bang
(grande esplosione iniziale), circa 13,5 miliardi di anni fa.
Il mondo è così come è, perché si è evoluto in modo
accidentale attraverso transizioni di metasistemi e processi
autoorganizzativi.
La sequenza è quindi: Fluttuazione quantistica del vuoto,
"Big Bang", particelle elementari, atomi, molecole, cellule viventi,
organismi
multicellulari, animali,
popoli e società.
Attualmente l'uomo occupa il punto
più alto nella gerarchia dei metasistemi, tramite l'epifenomeno dell' autocoscienza.
Recentemente, l'umanità ha iniziato
una nuova transizione di metasistema verso un "super organismo"
sociale dotato di una intelligenza globale.
In questa ottica, lo sviluppo di
tecnologie informatiche come internet può essere visto come un embrione di sistema
nervoso di questo nuovo organismo sociale (chiamato anche Metaman, Cybion,
Super-Essere, "Global - Brain").
Il web
del PCP è organizzato utilizzando il concetto del learning
web e cioè come una gigantesca rete mondiale in cui sono rafforzate solo le
connessione che vengono effettivamente visitate dagli utenti.
Il PCP può quindi essere inquadrato nel novero dei
movimenti che cercano di migliorare la qualità della vita umana tramite la
scienza, la tecnologia ed il pensiero razionale.
Inoltre, il PCP è una sorta di filosofia che cerca di dare
risposte alle grandi domande filosofiche come "Perché il mondo è
così?", "Da dove viene tutto?", "Qual è lo scopo di
tutto?", "Cos'è la felicità?".
Le risposte a tali domande così impegnative, sono date in una ottica razionalista
e positivista.
La filosofia PCP, con il suo concetto di evoluzione continua, può essere anche inquadrato
in una visione di tipo panteistico in cui vi è una progressiva
"coscientizzazione" dell'intero universo.
In questa ottica, forte il richiamo alle teorie filosofiche
del gesuita Teilhard de Chardin, sfrondate dal loro aspetto
più strettamente religioso.
Memetica e psicologia
Un campo di studio molto fertile ma ancora poco indagato è
quello che studia le relazioni fra l'influsso memetico e la psiche individuale.
Spunti interessanti sono presenti nell'opera di Susan Blackmore "La
macchina dei memi".
Questa ipotesi si allaccia al concetto di processo di
individuazione di Carl Gustav Jung.
Secondo Jung, il processo di individuazione fa sì che ogni
individuo sviluppi il proprio Sé, che potrebbe essere inteso sia come complesso di
archetipi
sia come complesso di memi.
Proprietà memetiche
L'associazione memetica
è la scoperta che i memi si raggruppano.
Ad esempio, il meme "blue jeans" include i memi
"cerniera lampo", "tintura blu", "doppie
cuciture", ecc.
La deriva memetica è il processo attraverso cui un'idea o un meme cambia mentre
viene trasferito da una persona ad un'altra.
Pochissimi memi mostrano un'elevata inerzia memetica, che è la
caratteristica di un meme di venire espresso nello stesso modo e di avere lo
stesso impatto a prescindere dalle persone che stanno trasmettendo e ricevendo.
La deriva memetica può aumentare quando il meme è trasmesso
tramite una comunicazione difficile, invece l'inerzia memetica cresce, per
esempio, quando la forma usata è quella delle espressioni in rima o utilizza
accorgimenti mnemonici.
Molta della terminologia memetica è creata usando come
prefisso "mem(e)-" per termini di solito già esistenti in ambito
biologico o usando "meme" al posto di "gene" nelle
espressioni composte (corredo memetico, memotipo, ingegneria memetica,
etc.).
Esempi di meme
Un meme può essere parte di
un'idea, così come può essere una lingua, una melodia,
una forma, un'abilità, un valore morale o estetico; può essere in genere
qualsiasi cosa possa essere imparata e trasmessa ad altri come un'unità.
La mutazione produce varianti, ma
solo le più adatte si replicano: esse diventano più comuni ed aumentano la loro
capacità di replicarsi ulteriormente.
Ad esempio, è probabile che siano
state mutazioni a far evolvere culturalmente primitivi gruppi di sillabe
nell'ampia gamma di lingue e dialetti attualmente esistenti; similmente
anche per l'ampia gamma di significati simbolici all'interno di ogni lingua.
Ulteriori mutazioni del linguaggio sono la scrittura,
l'alfabeto Braille, la lingua dei segni, eccetera.
In buona sostanza, il meme può
essere considerato come un qualsiasi pezzo di informazione che venga
impiantato da una mente in un'altra.
Questa interpretazione è più simile all'idea del
"linguaggio come virus" piuttosto che all'analogia di Dawkins dei
memi come comportamenti replicantisi.
Quanto segue sono alcuni esempi di cosa può essere considerato
meme:
- i comportamenti inerenti all'alimentazione e alle distrazioni;
- la tecnologia è un grande esempio; oggetti come le automobili, le tazze, i fermagli, eccetera e le loro modifiche nelle epoche e nelle culture. La tecnologia è una dimostrazione di come la mutazione sia essenziale per l'evoluzione memetica (e genetica);
- una canzone che non si riesce a smettere di canticchiare o di togliersi dalla testa; o un frammento di essa. ("earworm")
- una barzelletta, o perlomeno una sufficientemente bella da essere raccontata;
- un proverbio o un aforisma;
- una filastrocca, una ninnananna o una canzoncina per bambini;
- un poema epico;
- una catena di sant'Antonio ("manda questo messaggio a cinque amici o ti accadrà qualcosa di brutto");
- tutte le forme di superstizione;
- le religioni;
- le ideologie politiche (in particolare i grandi movimenti ideologici come il comunismo, fascismo, etc.);
- i "tormentoni" diffusi dai mass-media;
- Susan Blackmore ha ipotizzato che un sé altro non sia che la collezione delle sue storie memetiche; che lei chiama selfplex;
- il concetto di meme è anch'esso un meme. Persino l'idea che il concetto di meme sia un meme è diventato un meme diffuso (tautologia);
- i film sono veicoli di trasmissione memetica molto forti per via della loro diffusione di massa; molte persone si ritrovano ad imitare frasi particolari o modi di dire a volte persino senza aver visto il film da cui sono tratti;
- Internet è divenuta veicolo di una quantità infinita di meme, molti sono creati o fatti diventare meme dagli utenti stessi di varie forum board o 'wikipedie' (ad esempio 4chan, Encyclopedia Dramatica), possono essere spezzoni di video rimontati in un certo modo con una colonna sonora particolare, o immagini con descrizioni/modi di dire, o ancora personaggi televisivi.
Tormentoni e stereotipi linguistici
Persino i cosiddetti "tormentoni" generati dai
mass-media o estrapolati da film, videogiochi, discorsi pubblici sono memi
capaci di diffondersi e mutare - si pensi alla diffusione dell'espressione «mi
consenta...» impostasi nel linguaggio prima politico (come connotativa
dello stile comunicativo di Silvio
Berlusconi), e poi mass-mediatico o si pensi anche all'espressione «assolutamente sì», inizialmente veicolata dal linguaggio
dei doppiaggi delle soap opera e poi impostasi nel linguaggio comune.
Un motore
di ricerca può essere uno strumento utile, ancorché
imperfetto, per misurare la diffusione memetica di una frase.
Un crogiuolo di meta scienza
La questione di cosa sia una cultura, o ancora meglio una
civiltà quale intendiamo la Civiltà dell’Intelletto, coinvolge aspetti di
enorme ampiezza e portata.
Abbbiamo parlato di :
L'evoluzione culturale ed il meme
Teoria dell’informazione
Bisogna almeno ricordare, tra le altre, le seguenti aree.
Storia della biologia - La genetica comportamentale
Nella seconda metà del secolo le idee della genetica delle
popolazioni iniziarono ad essere applicate nella nuova disciplina della genetica comportamentale, sociobiologia e
specialmente negli esseri umani, psicologia evoluzionista.
Negli anni 1960 W.D. Hamilton e altri svilupparono approcci
della teoria dei giochi per spiegare l'altruismo da un
punto di vista evoluzionistico attraverso la selezione del kin[3].
La possibile origine di organismi superiori attraverso endosimbiosi
e i contrastanti approcci all'evoluzione molecolare nella visione gene-centrica,
che considerava la selezione come la causa prevalente dell'evoluzione, e la
teoria neutralista, che considerava un fattore chiave la deriva genetica,
generava eterni dibattiti sull'opportuno equilibrio tra adattamento e casualità
nella teoria evoluzionista.
Negli anni 1970 Stephen
Jay Gould e Niles Eldredge proposero la teoria degli equilibri punteggiati
che ipotizza che l'equilibrio è la caratteristica prevalente dei resti fossili,
e che la maggior parte delle modifiche evoluzionistiche accadono rapidamente su
periodi di tempo relativamente brevi.
Nel 1980 Luis e Walter
Alvarez proposero l'ipotesi che un evento meteoritico fosse responsabile
dell'evento di estinzione del Cretaceo. Ancora all'inizio degli anni 1980 l'analisi
statistica dei reperti fossili di organismi marini pubblicata da Jack Sepkoski
e David M. Raup condusse a una maggior apprezzamento dell'importanza di eventi
di estinzione di massa alla storia della vita sulla terra.
Origine della lingua
L'origine della lingua (o glottogonia) è un
argomento che ha attratto una considerabile attenzione nel corso della storia
dell'uomo.
L'uso della lingua è uno dei tratti più cospicui che
distingue l'Homo sapiens da altre specie.
A differenza della scrittura, la lingua parlata non lascia
tracce evidenti della sua natura o della sua stessa esistenza.
Perciò i linguisti devono ricorrere a metodi indiretti per
decifrare le sue origini.
I linguisti si trovano d'accordo che non ci sono lingue
primitive esistenti, e che tutte le popolazioni umane moderne usano lingue di
simile complessità.
Mentre le lingue esistenti si differenziano nei termini
della grandezza e dei temi del proprio lessico, tutte
possiedono la grammatica e la sintassi necessarie, e possono inventare,
tradurre e prendere in prestito il vocabolario necessario per esprimere
l'intera gamma dei concetti che i parlanti vogliono esprimere.[1][2]
Tutti gli esseri umani possiedono abilità linguistiche
simili, e nessun bambino nasce con una predisposizione biologica ad imparare
una data lingua invece di un'altra.[3]
Le lingue umane potrebbero essere emerse con la transizione
al comportamento umano moderno circa 164.000 anni fa (Paleolitico superiore).
Una supposizione comune è che il comportamento umano
moderno e l'emergere della lingua siano coincisi e fossero dipendenti l'uno
dall'altro, mentre altri spostano indietro nel tempo lo sviluppo della lingua a
circa 200.000 anni fa, al momento in cui apparvero le prime forme di Homo
sapiens arcaico (Paleolitico medio), o addirittura nel Paleolitico inferiore, a circa 500.000 anni
fa.
Questa questione dipende dal punto di vista sulle abilità
comunicative dell'Homo neanderthalensis. In tutti i casi è
necessario presumere un lungo stadio di pre-lingua, tra le forme di
comunicazione dei primati superiori e la lingua umana completamente sviluppata.
1.1.8 Parola e lingua
I linguisti fanno distinzione tra il parlare, il discorso e
la lingua.
Il parlare comporta la produzione di suoni dall'apparato
fonatorio.
I volatili parlanti, come alcuni pappagalli,
sono capaci di imitare parole umane.
Ad ogni modo quest'abilità di imitare i suoni umani è molto
diversa dall'acquisizione di una sintassi.
D'altro canto i sordi generalmente non usano il discorso
parlato, ma sono in grado di comunicare usando la lingua
dei segni, che viene considerata una lingua moderna, complessa e pienamente
sviluppata.
Ciò implica che l'evoluzione delle lingue umane moderne
richiede sia lo sviluppo dell'apparato anatomico per produrre foni e sia dei
mutamenti neurologici necessari per sostenere la lingua stessa.
Linguistica
Una lingua
è, in linguistica,
un sistema di comunicazione vocale o segnico
proprio di una comunità umana.[1]
Indica quindi il modo concreto e determinato storicamente in
cui si manifesta la capacità del linguaggio
umano dal quale si distingue in senso proprio.
Introduzione
Una lingua è un sistema di comunicazione composto da vari
sottosistemi.[2]
I principali sistemi che compongono una lingua sono: il lessico, il
sistema fonologico,
la morfologia, la sintassi e la pragmatica;
nel caso vi siano sia una versione scritta che
una orale,
anche un sistema di scrittura.[3]
La linguistica
è la disciplina che studia le lingue con lo scopo di
comprendere l'abilità umana del linguaggio[4].
Ferdinand de Saussure è stato il primo
studioso a dotare la linguistica dei metodi empirici e dell'obiettività delle scienze, grazie
alle sue teorie raccolte sotto la denominazione di strutturalismo, tanto da essere
soprannominato da alcuni il padre fondatore della linguistica moderna.[5]
Ethnologue indica che
nell'anno 2013 sono presenti nel mondo circa 7105 lingue[6].
Le lingue più parlate[7] sono: cinese mandarino, inglese, hindi/urdu, spagnolo, russo, arabo, bengali, portoghese, indonesiano e giapponese.
L'italiano è parlato
da circa 70 milioni di persone nel mondo e si attesta al 19º posto, a pari
merito con cantonese, telogo (parlato in India e in Malesia) e turco.
Le lingue del
mondo, esito ciascuna di uno sviluppo storico in una data area, si chiamano
lingue storico-naturali (storiche perché hanno una storia nella quale
sono protagonisti i parlanti di tali lingue, naturali per contrapporle
alle lingue artificiali).
In questi ultimi
anni gli studi sul linguaggio, inteso come facoltà umana di comunicare per
mezzo di sistemi verbali, e sulla lingua, manifestazione concreta con cui le
potenzialità verbali di un individuo (o di un gruppo) si realizzano in un certo
contesto storico, geografico, sociale, si sono moltiplicati: studiosi con
interessi scientifici molto diversi hanno esaminato il problema del linguaggio
da punti di vista differenti, a volte opposti.
Si parla di
linguaggio verbale e di linguaggi alternativi, di linguaggio e di lingua, di
linguaggio e di comunicazione in senso ampio.
Si può dire che
esiste comunicazione ogni qual volta
esista un passaggio di informazioni da un'emittente a un destinatario, in modo
tale che il messaggio, così come è stato
concepito, coincida con l'informazione decodificata dal ricevente.
L'uomo non è l'unico ad usare segnali convenzionali;
negli animali esistono forme di scambio di informazioni, ma non forme di
pensiero verbale in cui parola ed azione interagiscono vicendevolmente.
La lingua è pertanto lo strumento più raffinato e potente di
rappresentazione simbolica, cioè di quella capacità che è alla base di tutte le
funzioni concettuali.
Essa è inoltre
il mezzo più economico, diversificato ed appropriato che l'individuo ha a
disposizione per partecipare alla vita della sua comunità, diventando un membro
attivo, ricevendone il bagaglio culturale che può essere modificato secondo le
proprie esigenze, in un interscambio profondo fra sé e il gruppo di
appartenenza.
Dal momento
della sua comparsa e con la sua evoluzione il linguaggio è diventato il massimo
organizzatore logico dell'esperienza e del pensiero.
L'interesse per
il linguaggio, specificità dell'uomo, è iniziato nell'antichità con Platone, Aristotele,
Sant'Agostino,
ma la linguistica
come scienza è abbastanza recente.
La sua nascita
può essere fissata agli inizi del Novecento
con Ferdinand de Saussure, in particolare con la
pubblicazione nel 1916,
da parte di due suoi allievi, delle lezioni tenute a Ginevra tra il 1906 ed il 1911, nel "Corso
di linguistica generale".
L'opera di
Saussure ha il pregio di aver posto i fondamenti della linguistica, fondamenti
a cui si sono riferiti, come accettazione o rifiuto, studiosi appartenenti ad
indirizzi diversi di ricerca.
Teoria della comunicazione
Comunicare, dal latino communis = che appartiene
a tutti, significa propriamente condividere, "mettere qualcosa in comune
con gli altri". L'atto della comunicazione ha infatti lo scopo di
trasmettere a qualcuno informazioni e messaggi. È comunemente accettato
tuttavia che "non è possibile non comunicare", secondo un'idea
centrale del lavoro di Paul Watzlawick[1].
Anche la comunicazione non efficiente è una comunicazione. Rifiutare di
comunicare è comunicare che non si vuole comunicare.
In questo senso si differenzia dalla Teoria dell'informazione, che può
riguardare anche la comunicazione tra macchina e macchina. In ambito umano, per
esempio, non esistono ridondanza o rumore, quel che viene comunicato in eccesso ha
comunque valore connotativo.
I modi di comunicare sono numerosi e vari, come varie e
numerose sono le informazioni che si possono trasmettere. Tuttavia, al di là di
tanta varietà, è possibile individuare il meccanismo della comunicazione e le
caratteristiche fondamentali che sono comuni a ogni atto comunicativo.
La relazione tra chi parla e chi ascolta è sempre bilaterale,
nel senso che riguarda entrambi si relazionano al messaggio, possono scambiarsi
di posto e si adattano a riconsiderare il codice comune (negli atti principali
e reciproci di comprensione e apprendimento),
sia a livello verbale sia a livello non verbale.
La teoria della comunicazione ha inoltre a che fare con la sociologia
(formazione e conformazione alle norme sociali del linguaggio), l'estetica (accuratezza
della forma), psicologia (relazioni interpersonali svolte attraverso gli
atti e gli eventi comunicativi) ecc.
Semantica
La semantica è quella parte della linguistica
che studia il significato delle parole (semantica lessicale), degli insiemi delle
singole lettere (negli e degli alfabeti antichi) e delle frasi (semantica
frasale) e dei testi.
La semantica è una scienza in stretto rapporto con altre
discipline, come la semiologia, la logica, la psicologia,
la teoria della comunicazione, la stilistica,
la filosofia del linguaggio, la antropologia
linguistica e la antropologia simbolica.
Un insieme di termini che hanno in comune un fattore semantico viene detto
campo semantico.
La posizione della semantica, studiata nell'ambito di una
teoria generale dei segni, diventa più chiara se messa a confronto con la pragmatica
e la sintassi.
Si può infatti affermare che:
- la pragmatica studia il linguaggio in rapporto all'uso che ne fa il parlante;
- la semantica considera il rapporto tra l'espressione e la realtà extralinguistica;
- la sintassi studia le relazioni che intercorrono tra gli elementi dell'espressione linguistica.
Attività di pensiero
Il pensiero è l'attività della mente, un processo
che si esplica nella formazione delle idee, dei concetti,
della coscienza, dell'immaginazione,
dei desideri, della critica, del giudizio, e di ogni raffigurazione del mondo; può essere
sia conscio
che inconscio.
1.1.9 Etimologia
Pensiero è un termine che deriva dal latino
pensum (participio del verbo pendere: "pesare"),
e stava ad indicare un certo quantitativo di lana che veniva
appunto "pesata" per poter essere infine passata alle filatrici le
quali a loro volta avevano il compito di trattarla.[1]
Il "pensum" era quindi la materia prima, più
grezza, designante metaforicamente un elemento o un tema che doveva essere
secondariamente trattato, elaborato, dandogli così una nuova forma.
Si può notare in ciò la peculiarità attribuita al pensiero,
come qualcosa di straordinariamente semplice, che rende possibile oggetti
complessi: nel senso cioè che l'attività del pensiero si esplica nel comporre
oggetti, ovvero pensare significa pensare oggetti composti.
Da questo punto di vista, l'attività del pensiero è ciò che
è a monte degli oggetti pensati, pur essendo della loro stessa sostanza.
1.1.10 Caratteristiche del pensiero
Pensare significa spesso far uso di alcune proprietà
indicate di seguito:
- Utilizzo di modelli, simboli, diagrammi e disegni;
- Utilizzo dell'astrazione per semplificare lo sforzo del pensiero;
- Utilizzo della iterazione e della ricorsione per il raggiungimento del concetto;
- Riduzione dell'attenzione finalizzata ad un aumento della concentrazione focalizzata su un concetto;
- Impostazione e revisione degli obiettivi fissati;
- Utilizzo del dialogo e del confronto con altre menti pensanti.
Neuroscienze
Tradizionalmente, le neuroscienze sono state viste come un
ramo della biologia;
attualmente sono un campo interdisciplinare
che collabora con altri ambiti di studio come ad esempio chimica, informatica,
ingegneria,
linguistica,
psicologia,
sociologia,
matematica,
medicina e
discipline collegate, filosofia, fisica.
Il termine neurobiologia di solito è usato in modo
intercambiabile con il termine neuroscienze, anche se il primo si riferisce
specificamente alla biologia del sistema nervoso, mentre il secondo si
riferisce a tutta la scienza del sistema nervoso.
L'ambito delle neuroscienze si è ampliato per includere
diversi approcci utilizzati per studiare gli aspetti molecolari, cellulari, dello sviluppo,
strutturali,
funzionali,
evoluzionistici, computazionali e medici del sistema
nervoso.
Si sono ampliate enormemente anche le tecniche utilizzate
dai neuroscienziati, che sono attualmente in grado di studiare dagli aspetti
molecolari delle singole cellule nervose, fino al funzionamento complessivo del
cervello tramite l'utilizzo di tecniche di neuroimaging funzionale.
Le neuroscienze sono avanzate e progrediscono tuttora anche
grazie allo studio delle reti neurali.
A causa del numero crescente di scienziati
che studiano il sistema nervoso, diverse organizzazioni di spicco delle
neuroscienze si sono formate allo scopo di fornire un forum per tutti i neuroscienziati e gli
educatori.
Ad esempio, nel 1960 è stata fondata l'International
Brain Research Organization,[2] nel
1963 l'International
Society for Neurochemistry,[3] la European Brain
and Behaviour Society nel 1968,[4] e
la Society for
Neuroscience nel 1969.[5]
Informatica
L'informatica è la disciplina che si occupa del
trattamento dell'informazione mediante procedure automatizzabili.
In particolare ha per oggetto lo studio dei fondamenti
teorici dell'informazione, della sua computazione
a livello logico e delle tecniche pratiche per la sua implementazione
e applicazione in sistemi elettronici automatizzati
detti quindi sistemi informatici.
Il termine "informatica", contrazione di informazione
automatica, deriva dalla lingua
tedesca informatik ed è stato coniato nel 1957 da Karl Steinbuch nel
suo articolo Informatik: Automatische. Informationsverarbeitung, poi
ripreso da Philippe Dreyfus nel 1962 col libro Informatique.
1.1.11 Cenni storici
Lo stesso argomento in
dettaglio: Storia dell'informatica e Storia del computer.
|
Il termine di informatica è divenuto di uso comune ma dai
contorni ben poco definiti.
Come scienza si accompagna, si integra o è di supporto a
tutte le discipline scientifiche e non; come tecnologia
pervade pressoché qualunque "mezzo" o "strumento" di
utilizzo comune e quotidiano, tanto che (quasi) tutti siamo in qualche modo
utenti di servizi informatici.
La valenza dell'informatica in termini socio-economici ha
scalato in pochi anni la piramide di Anthony, passando da operativa (in
sostituzione o a supporto di compiti semplici e ripetitivi), a tattica (a
supporto della pianificazione o gestione di breve termine), a strategica.
In tale ambito l'informatica è diventata talmente
strategica nello sviluppo economico e sociale delle popolazioni che il non
poterla utilizzare, uno status battezzato con il termine digital
divide, è un problema di interesse planetario.
1.1.12 Aspetti tipici
L'informatica è frequentemente descritta come lo studio
sistematico dei processi algoritmici che descrivono e trasformano l'informazione ed
è quindi punto di incontro di almeno due discipline autonome: il progetto, la
realizzazione e lo sviluppo di macchine rappresentatrici ed elaboratrici
di numeri (dunque
l'elettronica)
e i metodi di risoluzione algoritmica di problemi dati (algoritmica),
che sfruttino a pieno le capacità di processamento offerte dalle macchine
elaboratrici stesse per l'ottenimento di determinati risultati in output a partire
da determinati dati in input.
La questione principale che sostiene l'informatica è dunque
"come si può automatizzare efficientemente l'elaborazione di
informazioni".
L'informatica, assieme all'elettronica
e alle telecomunicazioni unificate insieme sotto la
denominazione Information and Communication
Technology (ICT), rappresenta quella disciplina e allo stesso tempo quel settore
economico che ha dato vita e sviluppo alla terza rivoluzione industriale
attraverso quella che è comunemente nota come rivoluzione informatica.
Cibernetica
La cibernetica è la scienza che
studia i fenomeni di autoregolazione (vedi controlli automatici e controlli adattativi) e comunicazione (vedi Teoria dell'informazione), sia negli organismi
viventi (fisiologia) e negli altri sistemi naturali
quanto nei sistemi artificiali.
La cibernetica si pone dunque come un campo di studi
interdisciplinare tra le scienze e l'ingegneria.
1.1.13 Storia del termine
La parola greca antica kybernetes significa pilota
di una nave.
La radice è kyber, che sta per timone e trova un
parallelo nella radice latina guber, che ritroviamo nel gubernator,
timoniere e per estensione colui che governa una città, uno Stato.
Kyber e guber fanno evidente riferimento ad
una comune progenitrice indoeuropea che significava timone. Nel greco di
Platone è già attestata la parola kybernetikè, che dal significato
originario di governare una nave acquista per metafora il senso del governare
una città o uno Stato.
Nel 1834 Ampère riprende il termine greco nella sua ampia
classificazione delle scienze, francesizzando la parola nell'accezione politica
già attestata in Platone.
Indipendentemente da Platone e Ampère, la parola fu
reintrodotta da Wiener nell'estate del 1947 anglicizzandola in cybernetics,
nell'atto di dare il titolo al libro che uscirà l'anno dopo: Cybernetics or
Control and Communication in the Animal and the Machine; quest'atto
coincise anche con il battesimo di una nuova scienza a cui Wiener pensava da
tempo, fondata appunto sullo studio di animali e macchine dal punto di vista
della teoria dei controlli automatici e delle telecomunicazioni.
Norbert Wiener scrive in questo libro di aver voluto, tra
le altre cose, rendere omaggio a James Clerk Maxwell, autore di On Governors,
una delle prime fondamentali descrizioni matematiche del comportamento dei
cosiddetti regolatori centrifughi di velocità, dove vengono individuate le condizioni
di un loro comportamento stabile.
Il primo di tali regolatori era stato introdotto nel 1789 da James Watt
per controllare le variazioni di carico delle sue macchine a vapore. D'altro
canto la cibernetica per Wiener non è soltanto controllo ma anche
comunicazione; anzi quest'ultima ha la priorità per la comprensione degli
stessi controlli automatici.[1]
Telecomunicazioni : l’hardware della civilta’ dell’intelletto.
In tutto il nostro ragionamento, non si può prescindere dal
supporto hardware.
Sono le seguenti 3 le dimensioni di un sistema complesso,
secondo Capra.
Esistono infatti :
- Schema
- Struttura
- Processo
Riprendendo il suo esempio, una bicicletta è un sistema
complesso che ha :
- Uno schema generale, vale a dire “2 ruote+1 telaio”
- Una struttura, vale a dire la manifestazione fisica dello schema che può comportare un distinguo tra una mountain bike e una bici da corsa.
- Un processo, vale a dire l’insieme di meccanisi in movimento che la fanno funzionare.
Anche nel caso della cultura e dei valori, vale questo
esempio.
E la struttura è in larga parte quella delle
telecomunicazioni.
Non tratteremo di molti aspetti.
Ma è questa stessa struttura che risponde alla definizione
di “marchingegno rotante” (la cui rotazione sarebbe lo schema) che abbiamo menzionato
più volte ed al quale riconduciamo molti fenomeni strabilianti a cui stiamo
assistendo.
Ed’ questa stessa struttura, che noi distinguiamo in
hardware per rispetto al software, che riconduce gli intelletti individuali
all’intelligenza collettiva nidificandosi nei vari web e cloud, a cui dedicheremo
un capitolo.
E’ proprio questo software, che fa la funzione di processo, e
che fa funzionare tutta l’architettura.
Ma è anche vero che l’architettura fisica è talmente
complessa e articolata, come lo è quella software, che non ha senso prescindere
da una o dall’altra.
In sintesi, esiste un cervello mondo di cui facciamo parte
che in parte si autodetermina da solo e che noi monitoriamo nel suo sviluppo.
Partiamo dall’hardware. Il marchingegno rotante
evidentemente parte dai satelliti.
Telecomunicazioni : i satelliti artificiali e loro habitat
Con il termine satellite artificiale si possono
intendere tutti gli oggetti orbitanti intorno ad un corpo
celeste che sono stati posti volutamente nell'orbita desiderata
con mezzi tecnologici (ad esempio razzi vettori) e con varie finalità a supporto di necessità
umane (servizi o indagini/monitoraggio scientifico-ambientali). L'insieme di
più satelliti artificiali adibiti ad uno stesso scopo forma una costellazione
o flotta di satelliti artificiali.
I satelliti artificiali si possono suddividere in:
- satelliti scientifici, destinati alla ricerca pura nel campo dell'astronomia o della geofisica, es. Telescopio Spaziale Hubble o Lageos;
- satelliti applicativi, destinati a scopi militari o ad usi commerciali civili.
I satelliti applicativi si possono ulteriormente
suddividere in:
- satelliti per telecomunicazioni, apparecchiature costruite dall'uomo per le telecomunicazioni, es. i Satelliti COSPAS-SARSAT; spesso sono posizionati in un'orbita geostazionaria intorno alla Terra e in numero tale da formare una rete satellitare;
- satelliti meteorologici, posizionati sia in orbita geostazionaria (es. METEOSAT) sia in orbita polare (es. satelliti NOAA);
- satelliti per telerilevamento, costruiti per il telerilevamento, la cartografia e l'osservazione sistematica della superficie terrestre (es. satelliti Landsat, QuickBird, Envisat, IKONOS o RapidEye);
- satelliti per la navigazione, come quelli della rete GPS (Global positioning system);
- satelliti militari sia a scopo offensivo che difensivo, es. la rete di satelliti di monitoraggio nucleare Vela o l'americano Geosat;
- stazioni orbitanti, es. Stazione Spaziale Internazionale, Skylab, Mir;
- sonde spaziali in modo improprio, perché in genere le sonde non orbitano attorno ad un altro corpo.
Inoltre sono caratterizzati in base all'orbita che
percorrono. Le orbite principali sono: o: orbita
polare, orbita equatoriale, orbita geostazionaria, orbita
terrestre bassa, orbita terrestre media.
NDR : guardare i link wikipedia per le figure
Orbita polare,
Un'orbita polare è un'orbita che permette al satellite che la percorre di passare sopra
entrambi i poli del corpo celeste su cui ruota (ad esempio un pianeta). Quindi
l'orbita polare è un caso particolare di orbita inclinata rispetto al piano
equatoriale terrestre con un'inclinazione molto vicina ai 90° rispetto
all'equatore.
Le orbite polari si possono suddividere anche in morning orbit o afternoon
orbit, in base all'ora
in cui il satellite attraversa l'equatore.
Una volta fissato il piano
orbitale, perpendicolare alla rotazione del corpo centrale, il satellite
passerà sopra il pianeta con diverse longitudini,
quindi passerà sopra ogni regione del corpo centrale.
Per questa caratteristica, l'orbita polare è spesso utilizzata per missioni di mappatura
e osservazione terrestre ovvero telerilevamento e satelliti meteorologici.
Poiché non esistono orbite geostazionarie polari, per ottenere
un'esposizione su un solo polo per lungo tempo, benché a grande distanza,
vengono utilizzate delle orbite
ellittiche con grandi eccentricità e con apogeo sopra la zona da osservare: queste
orbite, molto utilizzate dall'Unione
Sovietica durante la Guerra Fredda, sono definite orbite
Molniya.
Orbita equatoriale,
Si definiscono orbite equatoriali quelle orbite il
cui piano orbitale coincide con il piano equatoriale dell'attrattore. Nel caso
di orbite equatoriali terrestri, il piano orbitale coinciderà con il piano definito
dall'equatore terrestre. Nelle orbite equatoriali:
- L'inclinazione orbitale è nulla, ovvero il versore del momento della quantità di moto dell'orbita coincide con il versore della velocità angolare dell'attrattore;
- Non è definita l'Asse dei nodi, come linea data dall'intersezione tra piano equatoriale e piano orbitale;
- Non è definita la Ascensione retta del Nodo ascendente Ω (RAAN in letteratura anglosassone ), che identifica lo scostamento angolare dell'asse nodale dalla direzione del Punto d'Ariete γ.
Un interessante tipologia di orbita geocentrica equatoriale
è l'orbita geostazionaria, ovvero un'orbita
equatoriale e geosincrona, avente come periodo orbitale il
periodo di rotazione terrestre: questo garantisce che
il satellite punterà sempre verso lo stesso punto della superficie terrestre
(punto subsatellitare); le orbite di questo tipo sono utilizzate quasi
esclusivamente da satelliti per telecomunicazioni.
Orbita geostazionaria,
Un'orbita geostazionaria (in inglese: Geostationary
Earth Orbit o GEO) è un'orbita
circolare ed equatoriale, situata ad una altezza tale che il periodo di rivoluzione
di un satellite che
la percorre coincide con il periodo di rotazione
della Terra. È un caso particolare di orbita geosincrona.
Orbita terrestre bassa,
Un'orbita geostazionaria (in inglese: Geostationary
Earth Orbit o GEO) è un'orbita
circolare ed equatoriale, situata ad una altezza tale che il periodo di rivoluzione
di un satellite che
la percorre coincide con il periodo di rotazione
della Terra. È un caso particolare di orbita geosincrona.
Orbita terrestre media.
Un'orbita terrestre media (in lingua
inglese medium Earth orbit o anche intermediate circular orbits,
abbreviato ICO) o MEO è un'orbita attorno al globo
terrestre di altitudine compresa tra le fasce di van Allen e l'orbita geostazionaria, ovvero tra i 2.000 ed
i 35.786 km.[1]
Può indicare
anche il nome dato a sistemi di telecomunicazioni satellitari in cui i
satelliti vengono collocati su orbite di media altitudine (≈10 000 km).[senza fonte]
Confrontando questi sistemi con quelli di tipo GEO ad orbita geostazionaria, si evince subito come
la distanza inferiore permetta di ridurre il ritardo di propagazione (che su
questi sistemi vale circa 100-130 ms) ma si perde la proprietà di avere il satellite in un punto fisso del cielo rispetto ad un
osservatore al suolo. Il satellite passa abbastanza velocemente nel cielo e per
poter garantire una continuità di servizio, lo si fa seguire subito da un
altro; in questo caso deve esistere un protocollo di handover (letteralmente 'passaggio di
mano') tra i due satelliti.
Per poter coprire l'intero globo è necessaria una flotta di
almeno 10-15 satelliti (il numero aumenta al diminuire del raggio orbitale).
La dimensione delle antenne e la potenza di trasmissione sono
inferiori rispetto ai sistemi GEO data la minore distanza.
I vantaggi e gli svantaggi di questo tipo di sistemi sono
gli stessi dei sistemi in orbita bassa.
Fasce di van Allen
La fascia di van Allen è un toro di particelle
cariche (plasma) all'interno della magnetosfera
terrestre trattenute dal campo magnetico terrestre per effetto
della forza di Lorentz.
Tali particelle cariche "urtando" tra di loro
perdono energia cinetica sotto forma di radiazione
che raggiunge i 30KeV.
Dal punto di vista qualitativo, è utile notare come la
fascia di van Allen consista in realtà di due fasce che circondano il nostro
pianeta, una interna ed una più esterna.
La più interna è molto stabile ed è costituita da un plasma
di elettroni e di ioni positivi ad alta energia, mentre la più esterna è
costituita da soli elettroni ad alta energia ed è caratterizzata da un
comportamento molto più dinamico, in particolare in risposta alle tempeste
solari.
Sebbene il termine fasce di van Allen si riferisca
esplicitamente alle cinture che circondano la Terra, simili
strutture sono state osservate attorno ad altri pianeti per
effetto dei rispettivi campi magnetici planetari.
Il Sole,
al contrario, pur avendo un campo magnetico proprio non possiede fasce di
radiazioni durevoli nel tempo.
L'atmosfera terrestre limita inferiormente
l'estensione delle fasce ad un'altitudine
di 200-1000 km; il loro confine superiore non arriva oltre i 40.000 km (che
corrispondono a circa 7 raggi terrestri) di distanza dalla superficie
della Terra.
Le fasce si trovano in un'area che si estende per circa 65
gradi a Nord e a Sud dell'equatore
celeste. Quando particelle cariche di origine solare (vento
solare) colpiscono l'alta atmosfera in corrispondenza delle alte latitudini
lungo le linee di forza del campo magnetico terrestre, queste
interagiscono con la sottostante ionosfera
dando luogo a una fluorescenza nota come aurora
polare.
Magnetosfera
Per magnetosfera si intende la regione di spazio circostante un corpo
celeste entro la quale il campo
magnetico da esso generato domina il moto
delle eventuali particelle cariche presenti.
Il termine è entrato in uso dopo gli anni cinquanta
del XX
secolo, quando è stato per la prima volta proposto dal fisico Thomas
Gold.
Nel sistema solare le magnetosfere dei pianeti che ne
sono dotati sono perturbate dalla presenza del vento
solare, un flusso di particelle elettricamente cariche emesso
ininterrottamente dalla corona solare; il punto in cui la forza repulsiva
bilancia la pressione delle particelle cariche è noto come punto di stagnazione.
Se esso è immerso nell'atmosfera planetaria, naturalmente, lo sviluppo di una vera
e propria magnetosfera è impossibile.
Anomalia del Sud Atlantico
L'Anomalia del Sud Atlantico o SAA (South
Atlantic Anomaly) è una zona del campo geomagnetico caratterizzata da un valore
di intensità magnetica inferiore rispetto al campo medio generato dal dipolo
magnetico; attualmente la SAA comprende la maggior parte del Sud
Atlantico e parti del Sud America, Sud
Africa e Antartide.
In questa area la parte inferiore delle fasce di Van Allen è più vicina alla superficie
del pianeta: a parità di altezza rispetto al livello del mare, l'intensità
delle radiazioni della fascia di Van Allen è più elevata rispetto a quella del
resto della superficie terrestre.
Le fasce di Van Allen sono simmetriche rispetto all'asse
del campo magnetico terrestre, mentre questo è
inclinato di circa 11° rispetto all'asse di rotazione
della Terra e
decentrato di circa 450 km rispetto al centro della Terra.
Tali caratteristiche di inclinazione e decentramento del
campo magnetico fanno sì che la parte più interna delle fasce di Van Allen è
più vicina alla superficie terrestre sopra l'oceano
Atlantico meridionale, mentre è più lontana sopra l'oceano
Pacifico settentrionale.
La SAA vista dal satellite
Le dimensioni della SAA aumentano con l'aumento dell'altitudine.
Ad un'altezza di circa 500 chilometri, l'Anomalia si estende dalla latitudine
geografica 0° a -50° e in longitudine da 90° Ovest a 40° Est. Inoltre, la forma
della SAA varia nel tempo: dalla scoperta iniziale, verso la fine degli anni cinquanta,
il confine Sud è rimasto approssimativamente costante mentre un'espansione di
lunga durata è stata misurata verso settentrione (tra Nord-Ovest e Nord-Est) e
verso Est.
Sia la forma della SAA, sia la densità delle particelle
cariche che la attraversano, variano anche su una base giornaliera, con una
maggiore densità di particelle cariche in corrispondenza del mezzogiorno locale.
visione globale
La parte più intensa della SAA si sta spostando verso Ovest
a una velocità di circa 0,3° di longitudine all'anno, velocità
molto simile alla rotazione differenziale
tra il nucleo della Terra
e la superficie della Terra, stimata tra 0,3° e 0,5° gradi di
longitudine annua [1][2].
Alcuni ricercatori credono che
l'Anomalia sia un effetto secondario dell'inizio di un'inversione magnetica
[3]: la letteratura esistente sull'argomento
riporta il lento indebolimento del campo magnetico terrestre come una delle
varie cause dei cambiamenti dei confini della SAA dalla sua scoperta ad oggi.
Quello che è certo è che il campo magnetico si sta indebolendo e che le fasce
di Van Allen si avvicineranno alla superficie terrestre, allargando di
conseguenza l'area della SAA.
L'Anomalia del Sud Atlantico produce importanti conseguenze
per i satelliti artificiali e per altri veicoli
spaziali che orbitano intorno alla Terra.
Questi oggetti, muovendosi a diverse centinaia di
chilometri dalla superficie terrestre, finiscono per transitare periodicamente
all'interno della SAA; quando ciò accade, essi si trovano esposti a forti
radiazioni per la durata di parecchi minuti.
La progettazione della Stazione Spaziale Internazionale
ha richiesto una schermatura supplementare per limitare questo problema, poiché
l'inclinazione della sua orbita la porta a passare periodicamente attraverso la
SAA. Per altro verso, il telescopio spaziale Hubble [4]
[5]
e altri satelliti artificiali devono sospendere le osservazioni quando
attraversano l'Anomalia[6][7][8].
Plasma
Da Wikipedia, l'enciclopedia libera.
In fisica e chimica, il plasma è un gas ionizzato, costituito da un insieme di
elettroni
e ioni e
globalmente neutro (la cui carica
elettrica totale è cioè nulla). In quanto tale, il plasma è considerato
come il quarto stato della materia, che si distingue quindi dal solido, il liquido e l'aeriforme, mentre
il termine "ionizzato"
indica che una frazione significativamente grande di elettroni è stata
strappata dai rispettivi atomi.
Fu identificato da Sir William
Crookes nel 1879
e chiamato "plasma" da Irving
Langmuir nel 1928[1].
Le ricerche di Crookes portarono alla realizzazione dei cosiddetti tubi
di Crookes, gli antenati dei tubi
catodici e delle lampade al neon.
Essendo costituito da particelle cariche, i moti
complessivi delle particelle del plasma sono in gran parte dovuti
alle forze elettriche a lungo raggio che si vengono
continuamente a creare, e che a loro volta tendono a mantenere il plasma
complessivamente neutro; questo fatto stabilisce una differenza importante
rispetto ai gas
ordinari, nei quali invece i moti delle particelle sono dovuti a forze che si
estendono al massimo per qualche primo vicino[2].
Le cariche elettriche libere fanno sì che il plasma sia un buon conduttore di elettricità,
e che risponda fortemente ai campi elettromagnetici.
Mentre sulla Terra la presenza del plasma è relativamente rara (fanno
eccezione i fulmini
e le aurore boreali), nell'Universo
costituisce più del 99% della materia conosciuta: si trovano infatti sotto
forma di plasma il Sole,
le stelle e le nebulose. Va
precisato, tuttavia, che la materia conosciuta rappresenta soltanto una piccola
percentuale, pari a circa il 5%, dell'intero contenuto di materia ed energia
dell'Universo, mentre il restante 95% è costituito dalle cosiddette energia
oscura e materia oscura, ovvero forme di energia e materia
non rilevabili direttamente mediante le loro emissioni elettromagnetiche. Infine, un
altro esempio di plasma è rappresentato dallo strato di gas ionizzato ed
estremamente caldo che si forma sullo scudo
termico dei veicoli spaziali al rientro nell'atmosfera.
Conclusione : numero di satelliti e reticolo spaziale
Superficie della terra = 510.072.000 km²
Raggio = 6.371 km
Circonferenza : 40.075 km,
13.000 satelliti stimati al 15/09/2010
Vale a dire 1 satellite ogni 3 km, se fossero posti in linea
sull’equatore.
Ma come si vede di seguito, sono disposti un po’ dapperttutto
e anche piuttosto lontani dalla Terra in parecchi casi.
Sulla fotografia qui di seguito diciamo che se si fosse
ipotizzato un reticolo di satelliti che facesse da fasciatura più o meno mobile
alla Terra, lo avremmo trovato.
E soprattutto val la pena di meditare : non crederemo mica che
13.000 satelliti siano stati sparati a caso nello spazio.
Una logica ci deve essere.
Teoria della comunicazione
https://it.wikipedia.org/wiki/Teoria_della_comunicazione
Da Wikipedia, l'enciclopedia libera.
“Portare messaggi da qui a li” (Shannon – Ndr)
La teoria della
comunicazione
è lo studio scientifico sui fenomeni di trasmissione di
segnali tra un sistema e un altro di uguale o diversa natura.
Definizioni
Comunicare, dal latino communis = che appartiene a
tutti, significa propriamente condividere, "mettere qualcosa in comune
con gli altri".
L'atto della
comunicazione ha infatti lo scopo di trasmettere a qualcuno informazioni e
messaggi.
È comunemente
accettato tuttavia che "non è possibile non
comunicare", secondo un'idea centrale del lavoro di Paul Watzlawick[1].
Anche la comunicazione non efficiente è una comunicazione.
Rifiutare di comunicare è comunicare che non si vuole
comunicare.
In questo senso si
differenzia dalla Teoria
dell'informazione, (vista
all’inizio Ndr) che può riguardare anche la comunicazione tra macchina e
macchina.
In ambito umano,
per esempio, non esistono ridondanza o rumore,
quel che viene comunicato in eccesso ha comunque valore connotativo.
I modi di
comunicare sono numerosi e vari, come varie e numerose sono le informazioni che
si possono trasmettere.
Tuttavia, al di là di tanta varietà, è possibile individuare
il meccanismo della comunicazione e le caratteristiche fondamentali che sono
comuni a ogni atto comunicativo.
La relazione tra
chi parla e chi ascolta è sempre bilaterale, nel senso che riguarda
entrambi si relazionano al messaggio, possono scambiarsi di posto e si adattano
a riconsiderare il codice comune (negli atti principali e reciproci di comprensione e apprendimento), sia a
livello verbale sia a livello non
verbale.
La teoria della
comunicazione ha inoltre a che fare con la sociologia (formazione
e conformazione alle norme sociali del linguaggio), l'estetica
(accuratezza della forma), psicologia (relazioni
interpersonali svolte attraverso gli atti e gli eventi comunicativi) ecc.
Il principio di Shannon e Weaver
Claude Shannon e Warren Weaver, in ambito
matematico, avevano elaborato nel 1949 una teoria della comunicazione basata sugli
esperimenti di trasmissione elettrica di informazioni.
Il loro schema prevede:
fonte →codifica →canale →decodifica →destinazione
ovvero: la fonte codifica un messaggio, che diventa un segnale
(eventualmente privato di parte o tutta la ridondanza) che viaggia su un canale
(che può introdurre rumore)
e diventa segnale ricevuto, che va decodificato
affinché diventi il messaggio ricevuto in forma comprensibile dal
destinatario.
Jakobson e le sei funzioni della comunicazione
Il linguista Roman Jakobson ha schematizzato
sei aspetti fondamentali che sono tuttavia riconducibili anche ad altre forme
di comunicazione, comprese quelle che utilizzano un linguaggio non verbale ma
che si servono, ad esempio, di suoni o di gesti.
Egli ha
individuato:
- un mittente (o locutore, o parlante) che è colui che invia
- un messaggio che è l'oggetto dell'invio
- un destinatario (o interlocutore), che riceve il messaggio, il quale si riferisce a
- un contesto (che è l'insieme della situazione generale e delle circostanze particolari in cui ogni evento comunicativo è inserito). Per poter compiere tale operazione sono necessari
- un codice che risulti comune a mittente e destinatario, e
- un contatto (o canale) che è una connessione fisica e psicologica fra mittente e destinatario, che consenta loro di stabilire la comunicazione e mantenerla.
Secondo Jakobson,
ai sei fattori della comunicazione verbale corrispondono sei funzioni
del linguaggio:
- la funzione referenziale (riferita al contesto)
- la funzione emotiva (riferita al mittente)
- la funzione conativa (riferita al destinatario)
- la funzione fàtica (riferita al contatto)
- la funzione poetica (riferita al messaggio)
- la funzione metalinguistica (riferita al codice).
Si ha funzione referenziale (puntamento verso ciò di cui
si parla) quando, nel comunicare qualcosa, il parlante
collega due serie di elementi: le parole con i referenti, compiendo
un'operazione che è alla base del linguaggio, la referenza. Il
parlante, per poter compiere questo processo, deve possedere una conoscenza
extra-linguistica che gli permetta di comprendere e utilizzare il fenomeno
della coreferenza
oltre che condividere il codice per una competenza testuale comune.
Si ha funzione emotiva quando il mittente cerca di
mostrare, nel proprio messaggio, lo stato d'animo, utilizzando vari mezzi,
come una particolare elevazione o modulazione del tono della voce, espressioni
"forti" o alterazione del normale ordine delle parole.
Si ha funzione conativa (dal latino conari =
intraprendere, tentare) o persuasiva quando il mittente
cerca di influire sul destinatario, come mediante l'uso del vocativo o
dell'imperativo.
Si ha funzione fàtica (dal latino fari =
pronunciare, parlare e dalla radice di grado forte "φα-" del verbo
greco "φημί") quando ci si orienta sul canale
attraverso il quale passa il messaggio e si cerca di richiamare l'attenzione
dell'ascoltatore sul funzionamento dello stesso ("pronto?",
"mi senti?", "attenzione, prova microfono!").
Si ha funzione poetica quando, orientandoci sul
messaggio, si pone al centro dell'attenzione l'aspetto
fonico delle parole, la scelta dei vocaboli e della costruzione formale.
Questa funzione poetica non appare solamente nei testi poetici e letterari, ma
anche nella lingua
di tutti i giorni, nel linguaggio
infantile o in quello della pubblicità.
Si ha funzione metalinguistica quando all'interno
del messaggio sono presenti elementi che definiscono o ridefiniscono il codice
stesso, come chiedere e fornire chiarimenti su termini, parole e grammatica di
una lingua.
Queste funzioni
non compaiono quasi mai isolatamente, e sono in potenza sempre presenti tutte,
ma può accadere che un messaggio sia volutamente e contemporaneamente emotivo e
conativo, oppure poetico ed emotivo.
M.A.K. Halliday e le tre funzioni fondamentali nel linguaggio dell'adulto
M.A.K.
Halliday, linguista britannico, individua nel
linguaggio dell'adulto tre funzioni fondamentali:
- funzione ideativa, che serve per esprimere l'esperienza che il parlante possiede del mondo reale, compreso il suo mondo interiore;
- funzione interpersonale che permette l'interazione tra gli uomini e serve per definire le relazioni che intercorrono tra il parlante e l'interlocutore;
- funzione testuale che serve per costruire testi ben formati e adatti alla situazione cui si riferiscono.
Il fenomeno del linguaggio umano è complesso e inesauribile e
molti sono gli studi ad esso riferiti, studi che inglobano e accomunano
discipline diverse, non solo la linguistica, ma anche la psicologia, la sociologia, la filosofia, l'antropologia.
Comunicazione narrativa
In narratologia, che studia
la comunicazione narrativa e letteraria, il modello si complica con altre
figure, per cui il mittente reale ha un mittente modello (la propria
rappresentazione all'interno del testo) e un lettore modello
(come si immagina sia il proprio lettore) diverso dal destinatario reale, il
quale a sua volta ricostruisce un suo modello di autore[2].
Questi studi hanno
coinvolto studiosi come Seymour Chatman,
Gérard Genette,
Umberto Eco[3] e, in
particolare nello studio dei personaggi Vladimir Propp, Claude Bremond, Gerald
Prince, Algirdas
Julien Greimas e altri.
Comunicare in sociologia, etnografia e antropologia
Se comunicare è
mettere in comune, esiste un ambito di analisi che
riguarda la comunicazione come rapporto tra linguaggio e società, con la
concezione rituale e di conservazione della società che attraverso la comunicazione instaura pratiche di conferma dei propri riti.
Insomma, la
comunicazione aviene sempre all'interno di una situazione sociale. In questo
senso di vedano gli studi di Erving Goffman o Barnett W. Pearce[4]. E si
consideri anche la funzione del dialetto e di altre
comunità linguistiche.
Nelle relazioni
dialogiche e possono esserci alternanza, in cui si parla selezionado linguaggi
diversi, co-occorrenza, in cui nella conversazione si sovrappongono
linguaggi diversi, o sequenza, in cui vige l'ordine di norme a cui
riferirsi.
Anche nel rapporto
con il potere (come suo strumento e nella relazione con il segreto), la
comunicazione è un controllo sociale, con procedure di esclusione,
verificabilità, organizzazione rituale delle discipline e indottrinamento
coatto. In questo ambito gli studi di Michel Foucault
possono fornire una prima analisi[5].
Comunicare in psicologia
Oltre ad avere contenuto, infatti, un atto di
comunicazione ha un livello che può essere persino indifferente a cosa sta
dicendo di per sé, ma che in genere è ben incastrato dentro il messaggio
stesso, questo è il piano della relazione.
La comunicazione quindi è un'interazione interpersonale e psicologica. Parlando
si decidono le leadership, influenzando il rapporto tra i comunicanti.
Valgono in questo
settore i concetti di classe, individuo, regola, ridondanza,
persuasione, variazione lessicale, come usare o meno una sintassi
condivisa, riferire termini tecnici o stabilire attraverso il linguaggio
gerarchie e posizioni di privilegio, anche attraverso prossemica e cinesica[6].
Oltre a parlare di
codice, si parla qui anche di repertorio
linguistico, come insieme di risorse che può essere impiegato o meno, e di patrimonio
linguistico, come regole di interpretazione delle conoscenze comuni.
In questo senso si considera, come a livello sociologico, la
comunicazione come scambio, negoziato, offerta di inferenza e, come in estetica, di quali
limiti siano accettabili nell'atteggiamento interpretativo[7].
Teoria della comunicazione in pedagogia
Alcuni studi sulla
comunicazione riguardano la formazione del linguaggio nei bambini, come si
sviluppa dalle prime reazioni alla voce della madre ai propri suoni di lallazione, attraverso
i processi di educazione e istruzione, fino alla competenza linguistica adulta.
Comunicazione e mass-media
È opinione di alcuni storici[8] che senza i giornali né la rivoluzione
francese né quella americana
avrebbero avuto luogo.
1.
quello di "opinione
pubblica" e
2.
quello di
"propaganda",
che andarono
crescendo e assestandosi all'interno della comunicazione pubblica fino alla prima
guerra mondiale, quando non era segreto, ma aveva comunque
il suo effetto, che ogni governo avesse un proprio ufficio di propaganda bellica.
La manipolazione dell'opinione pubblica diventò dunque
un'attività scientifica e vennero create varie teorie
della comunicazione applicate a quella che venne definita la "psicologia
di massa".
Tra tecniche di marketing, studi sull'inconscio dei gruppi[9], orientamenti di tipo psicologico visivo e auditivo
(complice lo sviluppo della radio e i regimi dittatoriali europei), gestione di
informazioni per la creazione di opinion leader ecc. si arrivò persino a
definire l'età dell'"uomo comune" intorno ai 13 anni[10].
Con la seconda
metà del XX secolo,
l'avvento della televisione e lo sviluppo della sociologia applicata ai mass
media, le teorie della comunicazione di massa
andarono sviluppandosi ulteriormente[11].
Contributi
decisivi vennero dati da Harold Innis, Walter J. Ong, Vance Packard, Marshall McLuhan,
Erving Goffman,
Noam Chomsky, e più
recentemente Joshua
Meyrowitz e Philippe Breton.
In particolare la televisione venne accusata di essere uno
strumento di perdita di controllo sociale da parte di altre istituzioni come la
scuola, i partiti politici e le chiese.
Filosofi come Karl Popper e
politologi come Giovanni
Sartori si trovarono d'accordo nel condannare la degenerazione culturale che passa in televisione,
ritenuto uno strumento pericoloso di consenso artificiale e omologazione.
Solo con il nuovo millennio
e i canali tematici delle televisioni non più di monopolio, come pure con
l'accesso globale attraverso i satelliti e soprattutto con internet, si è spostata l'attenzione dal "pericolo"
televisivo a nuovi studi di comunicazione, con la creazione di dipartimenti
universitari di media studies e lo scambio di teorie scientifiche sulla
comunicazione attuale, su come viene modellato il nostro senso del mondo anche
attraverso l'informazione incontrollata, essendo l'eccesso di disponibilità una
nuova preoccupazione.
Cosa sono i messaggi, come si veicolano, quanto pesano. Bit, Qbit, informatica quantistica e altro.
I Bit -Il significato del bit
La parola bit, in informatica
e in teoria dell'informazione, ha due
significati molto diversi, a seconda del contesto in cui rispettivamente la si
usi.
1.
un bit è l'unità di misura dell'informazione
(dall'inglese "binary digit"),
definita come la quantità minima di informazione che serve a discernere tra due
possibili eventi equiprobabili.
2.
un bit è una cifra binaria, ovvero uno dei due
simboli del sistema numerico binario, classicamente
chiamati zero (0) e uno (1); in questo caso si può parlare di
numero di 8, 16, 32... bit proprio come nella comune base dieci si parla di un
numero di 2, 5, 6... cifre.
La differenza di significato tra le due definizioni può
riassumersi con una frase come: "la ricezione
degli ultimi 100 bit (simboli binari) di messaggio ha aumentato la nostra
informazione di 40 bit (quantità di informazione)" (la quantità di
informazione portata da un simbolo dipende dalla probabilità a priori che si ha
di riceverlo).
Il bit come quantità di informazione
In questo contesto, un bit rappresenta l'unità di
misura della quantità d'informazione.
Questo concetto di bit è stato introdotto dalla teoria dell'informazione di Claude
Shannon nel 1948,
ed è usato nel campo della compressione
dati e delle trasmissioni numeriche.
Intuitivamente equivale alla scelta tra due valori (sì/no,
vero/falso, acceso/spento) quando questi hanno la stessa probabilità di essere
scelti.
In generale, per eventi non
necessariamente equiprobabili, la quantità d'informazione di un evento
rappresenta la "sorpresa" nel constatare il verificarsi di tale
evento (Ndr per questo la ricezione degli
ultimi 100 bit di cui sopra ha aumentato l’informazione solo di 40); per
esempio, se un evento è certo, il suo verificarsi non sorprende nessuno, quindi
il suo contenuto informativo è nullo; se invece un evento è raro, il suo
verificarsi è sorprendente, quindi il suo contenuto informativo è alto.
Il contenuto informativo (o entropia) di un generatore di
eventi (detto "sorgente") è la media statistica dei
contenuti informativi di ogni possibile valore, ovvero
la somma delle informazioni pesate per la probabilità del corrispondente
valore.
Nel caso dei due valori con probabilità 25% e 75%, il
contenuto informativo della sorgente è:
0,25 × −log2(0,25) + 0,75 × −log2(0,75)
= ~0,811 bit.
Cioè la sorgente genera meno di un
bit per ogni evento.
Nel caso di due eventi equiprobabili, si ha:
0,5 × −log2(0,5) + 0,5 × −log2(0,5) =
0,5 × 1 + 0,5 × 1 = 1 bit.
Cioè la sorgente genera esattamente un bit per ogni evento.
Il bit come cifra binaria
In questo contesto il bit rappresenta l'unità di
definizione di uno stato logico, definito anche unità elementare
dell'informazione trattata da un elaboratore.
Ai fini della programmazione è comune raggruppare
sequenze di bit in entità più vaste che possono assumere valori in intervalli
assai più ampi di quello consentito da un singolo bit.
Questi raggruppamenti contengono generalmente un numero di
stringhe binarie pari a una potenza
binaria, pari cioè a 2n; il più noto è il byte (chiamato anche
ottetto), corrispondente a 8 bit, che costituisce l'unità di misura più utilizzata in campo informatico.
Il qubit
https://it.wikipedia.org/wiki/Qubit
Da Wikipedia, l'enciclopedia libera.
Qubit, contrazione di quantum bit, è il termine
coniato da Benjamin Schumacher per
indicare il bit quantistico ovvero l'unità di informazione quantistica.
L'unità di informazione codificata
Per definire il qubit è indispensabile introdurre innanzi
tutto il concetto nuovo di quanto di informazione,
cioè la più piccola porzione in cui una qualsiasi
informazione codificata
può essere scomposta; è quindi l'unità di misura
dell'informazione codificata.
Così come il bit è il
quanto di informazione della computazione classica,
la computazione quantistica si basa su un concetto analogo: il quantum bit.
Al pari del bit, il qubit è un oggetto matematico
con determinate specifiche proprietà. Il vantaggio nel trattare i qubit come
entità astratte risiede nella libertà di costruire una teoria generale della computazione
quantistica che non dipende dagli specifici sistemi utilizzati per la sua
realizzazione.
Computer quantistico
Un computer quantistico (o quantico) è un nuovo dispositivo
per il trattamento ed elaborazione delle informazioni
che per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici
della meccanica quantistica, come la sovrapposizione
degli effetti e l'entanglement.
Per decenni, l'aumento della
potenza dei computer è andato di pari passo con la miniaturizzazione dei
circuiti elettronici, un fenomeno codificato empiricamente nella Legge
di Moore: la densità dei transistor su un microchip e la relatività velocità di
calcolo raddoppiavano ogni 18 mesi circa.
La miniaturizzazione dei componenti, però, non può
procedere all'infinito, e in effetti si è fermata alle soglie del mondo
microscopico, governato dalle leggi della meccanica quantistica.
Con una felice intuizione dei teorici della computer
science, la meccanica quantistica, da limite che era, è stata trasformata
in un'opportunità grazie a cui realizzare una macchina per il calcolo
automatico caratterizzata da una potenza di calcolo enormemente superiore a
quella dei computer convenzionali: il computer quantistico.
Al posto dei convenzionali bit, le
unità d'informazione binaria, indicate convenzionalmente dalle cifre 0 e 1, e
codificate dai due stati "aperto" e "chiuso" di un
interruttore, nel computer quantistico si usano i qubit., codificati dallo stato quantistico di una particella o
di un atomo.
Lo spin di una particella per
esempio, ha due orientamenti o stati “su” e “giù” che possono codificare le
informazioni binarie.
A rendere interessante ai fini del
calcolo le particelle atomiche e subatomiche è il fatto che possono esistere
anche in una sovrapposizione di stati quantistici, ampliando enormemente le
possibilità di codifica delle informazioni e quindi le possibilità di
affrontare problemi estremamente complessi.
Tuttavia, né la manipolazione controllata di atomi e
particelle né la loro reciproca comunicazione né infine la stesura di algoritmi
adatti allo scopo sono obiettivi facili da raggiungere nel calcolo quantistico.
Per questo motivo, la lunga strada per la realizzazione di
un computer quantistico è solo agli inizi. [1]
Proprietà quantistiche del Qbit : entanglement e interferenza (sovrapposizione)
I concetti relativi alla computazione quantistica e, in
particolare, il concetto di qubit si basano sulla meccanica quantistica.
Il layer fisico è pertanto dotato di proprietà non
osservabili nel mondo macroscopico, come la sovrapponibilità
degli stati, l'interferenza, l'entanglement
e l'indeterminazione.[1]
L'entanglement quantistico o correlazione
quantistica è un fenomeno quantistico, privo di analogo classico,
per cui in determinate condizioni lo stato
quantico di un sistema non può essere
descritto singolarmente, ma solo come sovrapposizione
di più sistemi.
Da ciò consegue che la misura di un
osservabile di uno determina istantaneamente il valore anche per gli
altri.
Poiché risulta possibile dal punto
di vista sperimentale che sistemi come quelli descritti si trovino spazialmente
separati, l'entanglement implica in modo controintuitivo la presenza di
correlazioni a distanza tra le loro quantità fisiche (teoricamente senza alcun
limite), determinando il carattere non locale della teoria.
Il termine "entanglement" (letteralmente, in
inglese, groviglio, intreccio) fu introdotto da Erwin Schrödinger in una recensione del famoso
articolo sul paradosso EPR[1],
che nel 1935 rivelò a livello teorico il fenomeno.
Interferenza (fisica)
Da Wikipedia, l'enciclopedia libera.
In fisica il fenomeno dell'interferenza è un fenomeno dovuto alla sovrapposizione, in un punto dello spazio,
di due o più onde.
Quello che si osserva è che l'intensità o ampiezza
dell'onda risultante in quel punto può essere diversa rispetto alla somma delle
intensità associate ad ogni singola onda di partenza; in particolare, essa può
variare tra un minimo, in corrispondenza del quale non si osserva alcun
fenomeno ondulatorio, ed un massimo coincidente con la somma delle intensità.
In generale, si dice che
l'interferenza è ' costruttiva ' quando l'intensità risultante è
maggiore rispetto a quella di ogni singola intensità originaria, e ' distruttiva
' in caso contrario.
1.1.14 Quante informazioni possono essere rappresentate da un qubit?
Paradossalmente ci sono un numero
infinito di combinazioni lineari della base ortonormale così da permettere, almeno in linea di principio, la rappresentazione
in un unico qubit di tutto lo scibile umano.
Ma questa conclusione risulta erronea in virtù del comportamento
del qubit in fase di misurazione.
Va tenuto presente, infatti, che l'esito della misurazione
dello stato di un qubit può essere soltanto oppure
.
Di più, la misurazione del qubit ne cambia inesorabilmente lo
stato riducendo la sovrapposizione in uno dei due specifici stati rappresentati
dai vettori della base computazionale così come prescritto dal terzo postulato.
Quindi, dalla misurazione di un qubit, è possibile ottenere
la stessa quantità di informazione rappresentabile con un bit classico. Questo
risultato è stato dimostrato rigorosamente dal Teorema
di Holevo.
1.1.15 Sovrapposizione e entanglement nell'informatica quantistica
Mentre il bit classico è
immaginabile come una moneta che, una volta lanciata, cadrà a terra mostrando
inesorabilmente una delle due facce, il qubit è immaginabile come una moneta
che, una volta lanciata, cadrà a terra continuando a ruotare su sé stessa senza
arrestarsi fino a che qualcuno non la schiacci con una mano bloccandone la
rotazione e obbligandola finalmente a mostrare una delle sue facce.
Tuttavia la natura continua
dello stato del qubit (che permette l'esistenza degli stati di
sovrapposizione) non è l'unica caratteristica distintiva del qubit rispetto al
cugino classico.
Nel pieno rispetto delle leggi della meccanica quantistica, una combinazione di più qubit è soggetta ad una
caratteristica chiamata entanglement.
Il termine inglese letteralmente significa
"ingarbugliamento", "intreccio".
Ma una buona interpretazione
potrebbe essere "legatura" infatti, in condizione di entanglement,
due qubit perdono la loro natura individuale per assumerne una unica di coppia.
In tale condizione lo stato di un
qubit influenza lo stato dell'altro e viceversa.
1.1.16 Rappresentazione geometrica del qubit
L'unico modo sinora individuato per fornire una efficace rappresentazione
geometrica di un qubit, consiste nella cosiddetta Sfera
di Bloch.
Formalmente il qubit, in quanto punto di uno spazio
vettoriale bidimensionale a coefficienti complessi, avrebbe quattro gradi di
libertà ma la condizione di completezza da un lato e l'impossibilità di
osservare il fattore di fase dall'altro riducono a 2 i suoi gradi di libertà.
Dunque un qubit può essere rappresentato come punto sulla
superficie di una sfera di raggio unitario.
Informatica quantistica
https://it.wikipedia.org/wiki/Informatica_quantistica
Da Wikipedia, l'enciclopedia libera.
L'informatica quantistica è l'insieme delle tecniche
di calcolo e del loro studio che utilizzano i quanti per memorizzare ed elaborare le
informazioni.
Molte sono le differenze con l'informatica
classica, soprattutto nei principi
fondamentali.
Origini dell’informatica quantistica
La macchina di Turing (MT)
utilizza gli assiomi della fisica
classica, ossia lo stato del nastro e della testina sono sempre
univocamente identificabili, gli spostamenti sono sempre regolati dalle leggi
del moto, etc. Quindi la MT è totalmente deterministica
(MTD).
Una sua variante, che si dimostra equivalente ma più
veloce, è la macchina di Turing probabilistica
(MTP). Può risolvere ogni problema che è
possibile risolvere tramite la MTD, ma di solito lo fa più velocemente (nel
senso della teoria della complessità
algoritmica).
Anch'essa, però, è soggetta agli assiomi della fisica
classica, e soprattutto nessuna delle due è reversibile, per il secondo principio della
termodinamica.
Dato che la meccanica quantistica è reversibile, una macchina di Turing quantistica (MTQ)
deve essere reversibile.
Inoltre deve rispettare i vincoli della meccanica
quantistica, tra cui il principio di
indeterminazione di Heisenberg e l'equazione di Schrödinger.
Lo sviluppo di una MTQ, e quindi di
un calcolatore quantistico, ha richiesto, come spesso avviene, diversi
passaggi.
Nel 1973 Charles Bennet dimostrò che è
possibile costruire una MT reversibile. Nel 1980, Paul Benioff ha dimostrato che
la reversibilità è una condizione necessaria per realizzare una MTQ. Due anni
dopo Richard Feynman pubblicò il suo famoso lavoro sul computer quantistico. In esso, stabilisce che:
- Una MTD può simulare un sistema quantistico solo con un rallentamento esponenziale (nel senso della teoria della complessità algoritmica).
- Un computer basato sui qubit non è soggetto a tale limitazione, ed è dunque un simulatore quantistico universale.
I primi prototipi di computer a
qubit sono stati realizzati dal Centro ricerche dell'IBM di Almaden nel 1997,
misurando lo spin dei nuclei atomici di particolari
molecole tramite la risonanza magnetica nucleare.
Sono stati realizzati "processori" a 5 e 7 qubit,
con cui tra l'altro è stato applicato per la prima volta l'algoritmo di fattorizzazione di
Shor
Principi dell'informatica quantistica
Le regole che stanno alla base del calcolo
quantistico differiscono notevolmente da quelle classiche, e sembrano molto più
restrittive.
In realtà, è possibile mostrare che le macchine di Turing
quantistiche (MTQ) non solo permettono di raggiungere la stessa affidabilità
nei calcoli, ma riescono a eseguire compiti che le macchine di Turing classiche
non possono fare: ad esempio, generare numeri veramente casuali, e non
pseudo-casuali.
Andiamo ad elencare i principi:
- No-cloning: l'informazione quantistica non può essere copiata con fedeltà assoluta, e quindi neanche letta con fedeltà assoluta. (William Wootters, 1982).
- L'informazione quantistica può invece essere trasferita con fedeltà assoluta, a patto che l'originale venga distrutto nel processo.
- Il teletrasporto quantistico è stato ottenuto per la prima volta da Nielsen, Klinn e LaFlamme nel 1998.
- Ogni misura compiuta su di un sistema quantistico distrugge la maggior parte dell'informazione, lasciandolo in uno stato base. L'informazione distrutta non può essere recuperata. Ciò è una derivazione diretta dai postulati della meccanica quantistica (PMQ)
- Anche se in qualche caso è possibile conoscere esattamente in che stato base si troverà il sistema dopo una misura, il più delle volte avremo solo previsioni probabilistiche. Anche questo deriva direttamente dai PMQ
- Alcune osservabili non possono avere simultaneamente valori definiti con precisione, per il principio di indeterminazione di Heisenberg. Ciò ci impedisce sia di stabilire con esattezza le condizioni iniziali prima del calcolo, sia di leggere i risultati con precisione.
- L'informazione quantistica può essere codificata, e solitamente lo è, tramite correlazioni non-locali tra parti differenti di un sistema fisico. In pratica, si utilizza l'entanglement.
Approcci al qubit
Oltre all'approccio fisico al qubit, rappresentato
tramite trappole di ioni, punti quantistici, o spin atomici, vi è anche
l'approccio topologico,
che recentemente sta attraversando un boom di notorietà, grazie alle proprietà
dei gas bidimensionali di elettroni.
Critiche al Qbit
Alcuni criticano le possibilità dell'informatica
quantistica, in quanto per poter avere elevate precisioni sia in ingresso che
in uscita, occorre sia tempo che energia.
Questo è senz'altro vero, tuttavia
vi è un aspetto che viene sottovalutato: la precisione è infinita durante il calcolo.
Questo significa che durante
elaborazioni complesse, non vi sono ulteriori errori di cancellazione,
overflow o underflow determinati dalla rappresentazione
digitale, come invece accade con i processori
binari. In altre parole un algoritmo quantistico è sempre stabile, tranne che per l'input e l'output.
Gravità quantistica
https://it.wikipedia.org/wiki/Gravit%C3%A0_quantistica
Da Wikipedia, l'enciclopedia libera.
La gravità quantistica è il
campo della fisica teorica che tenta di
unificare la teoria quantistica dei campi
denominata Modello standard, che descrive tre delle forze fondamentali della natura (elettromagnetica, debole e forte),
con la teoria della relatività generale, che
descrive la gravità.
Lo scopo delle teorie proposte, come ad esempio la teoria delle stringhe, è quello di ottenere
una struttura unica per tutte le quattro forze fondamentali, realizzando una teoria
del tutto.
1.1.17 Introduzione
A partire dagli anni ottanta
del XX
secolo, molti fisici teorici si sono concentrati sulla definizione di una
teoria quantistica che
- conciliasse la meccanica quantistica e la relatività generale
- spiegasse in maniera chiara l'esistenza delle quattro famiglie di particelle, dei bosoni intermedi e della gravità.
La teoria della relatività generale di Albert
Einstein descrive il campo gravitazionale in
termini geometrici (cioè usando la nozione di curvatura dello spaziotempo).
Tuttavia, essa non ci dice nulla
riguardo alle particelle mediatrici della forza gravitazionale, i cosiddetti
gravitoni.
Molte delle difficoltà
dell'unificazione di queste teorie derivano da presupposti radicalmente
differenti su come è strutturato l'universo.
La teoria quantistica dei campi dipende dai campi delle particelle inserite nello
spazio-tempo piatto della relatività ristretta (v. spazio-tempo di Minkowski).
La relatività generale tratta la
gravità come una curvatura intrinseca dello spazio-tempo che varia al movimento
della massa.
Il modo più semplice per combinare
le due teorie (come ad esempio trattare semplicemente la gravità come un altro
campo di particella) finisce rapidamente in quello che è conosciuto come il
problema della rinormalizzazione. Nella teoria quantistica dei campi, nella meccanica statistica e nella teoria delle strutture
geometriche auto-similari, la rinormalizzazione
è un insieme di tecniche per trattare gli infiniti che emergono nel calcolo delle
quantità fisiche.
Le particelle di gravità si
attraggono reciprocamente e concorrono tutte ai risultati delle interazioni,
producendo valori infiniti che non possono essere facilmente cancellati
per produrre risultati finiti (e sensati). Al contrario, in elettrodinamica quantistica le interazioni talvolta esprimono risultati numericamente
infiniti, ma questi sono rimovibili per mezzo della rinormalizzazione.
Sia la meccanica quantistica che la relatività generale
hanno avuto un grande successo. Sfortunatamente, non vi sono dati sperimentali
che possono fare luce su come si combinano le due teorie.
Una tale teoria è necessaria per comprendere quei problemi
che interessano la combinazione di enormi masse o energie con dimensioni
estremamente piccole di spazio, come il comportamento dei buchi neri
e l'origine
dell'universo.
Teoria delle Stringhe - Accenni
In fisica teorica, la teoria delle stringhe
(letteralmente in inglese string significa "corda") è una teoria,
ancora in fase di sviluppo, che tenta di conciliare la meccanica quantistica con la relatività generale[1],
e che si spera pertanto possa costituire una teoria
del tutto.
Si fonda sul principio secondo cui la materia, la radiazione
e, sotto certe ipotesi,
lo spazio e il tempo siano in realtà la manifestazione di entità fisiche
fondamentali che, a seconda del numero di dimensioni
in cui si sviluppano, vengono chiamate stringhe
oppure p-brane[2].
1.1.18 Introduzione
Interazioni nel modo subatomico: linee
d'universo di particelle puntiformi nel Modello
Standard (a sinistra) e un foglio d'universo composto da stringhe chiuse
nella teoria delle stringhe (a destra)
La teoria delle stringhe è un modello fisico i cui costituenti fondamentali sono oggetti ad una dimensione (le stringhe),
invece che di dimensione nulla (i punti) come nelle teorie precedenti.
Per questa ragione è in grado di evitare i problemi connessi alla presenza di particelle puntiformi.
Uno studio più approfondito della teoria delle stringhe ha
rivelato che descrive oggetti che possono avere dimensioni nulle (e quindi
essere punti), una dimensione (stringhe), due dimensioni (membrane) o possedere
un numero D di dimensioni maggiore di due (D-brane).
Il termine "teoria delle stringhe" si riferisce
propriamente sia alla teoria bosonica
a 26 dimensioni che alla teoria supersimmetrica
a 10 dimensioni (teoria delle superstringhe).
Tuttavia nell'uso comune fa riferimento alla variante
supersimmetrica, mentre l'altra teoria prende il nome di teoria di stringa bosonica.
L'interesse verso la teoria risiede nel fatto che si spera
possa essere una teoria del tutto, ossia che descriva tutte le forze fondamentali.
Potrebbe cioè fornire un modello
per la gravità quantistica, insieme alle altre interazioni fondamentali già contemplate
dal Modello standard.
Sebbene includa nella versione supersimmetrica anche i fermioni, i
"mattoni" costituenti la materia, non è
ancora chiaro se possa descrivere un universo con le caratteristiche di forze e
materia come quello osservato.
A questo punto ci chiediamo: cosa è il peso ? E quanto pesa un pensiero o anima ?
In fisica classica la forza-peso (o più
semplicemente peso) agente su un corpo è la forza
che il campo gravitazionale esercita su una massa
verso il centro della Terra.
La forza della Terra si indica con la lettera g
(accelerazione di gravità).
La forza peso è stata definita da Isaac
Newton nel libro Philosophiae Naturalis
Principia Mathematica del 1687, definendo la legge di gravitazione universale.
1.1.19 Peso e massa
Lo stesso argomento in
dettaglio: massa (fisica).
|
Colloquialmente è frequente usare indistintamente le parole
"peso" e "massa",
ma questi termini non sono equivalenti dal punto di vista fisico.
In fisica si distinguono forza peso e massa in quanto grandezze
sostanzialmente diverse:
1.
mentre la massa di un
corpo è una sua proprietà intrinseca, indipendente dalla sua posizione
nello spazio e da ogni altra grandezza fisica,
2.
il peso è l'effetto prodotto su tale massa dalla
presenza di un campo gravitazionale.
Ne risulta che la massa di un corpo è costante, mentre il
suo peso varia a seconda del luogo in cui viene misurato.
Sulla Luna, un uomo pesa meno che sulla Terra: sui due
corpi celesti, una bilancia a torsione o a molla restituirà
quindi valori diversi, in quanto si basa sulla misurazione della forza peso;
una bilancia a contrappeso, invece, restituirà lo stesso valore, in quanto si
basa sul confronto di masse (ciò vuol dire che anche su pianeti diversi uno
stesso corpo mantiene la sua massa, mentre la forza peso varia in base
all'accelerazione di gravità).
Supergravità - Gravifotone
Da Wikipedia, l'enciclopedia libera.
Una teoria della supergravità è una teoria di campo che combina la supersimmetria
con la relatività generale.
Come ogni teoria di campo della
gravità, una teoria della supergravità contiene un campo di spin-2 il cui quanto è il gravitone.
La supersimmetria richiede che il
campo del gravitone abbia un superpartner.
Questo campo ha spin 3/2 ed il suo
quanto è il gravitino.
Il numero dei campi del gravitino è uguale al numero delle
supersimmetrie.
Si pensa che le teorie della supergravità siano le uniche
teorie coerenti dei campi interagenti privi di massa
con spin 3/2.
Gravifotone e graviscalare
Attraverso le forze di deriva delle
masse si dimostra l'esistenza del gravitone come l'entità energetica che
interagisce con la materia alla medesima velocità del fotone e il cui campo di
forza vettoriale ha comportamenti elettromagnetici.
La nuova particella, che sarebbe quantisticamente un bosone
vettore di gauge con spin 2, dimostra un campo d'azione
infinito come la luce e segue le dinamiche fisiche del campo di forza
newtoniano relativizzato in c come prevede la relatività generale.
Il gravifotone e il graviscalare sono campi che compaiono,
tra gli altri, nelle teorie di supergravità accoppiata a certi campi vettoriali
(simili al fotone)
in 4 dimensioni con 4 generatori di supersimmetria.
Questi al momento sono il risultato della richiesta che la
teoria sia supersimmetrica, in quanto ancora non sono stati rivelati partner
supersimmetrici delle particelle elementari note.
La teoria dei 21 grammi
Duncan MacDougall (1866 – 15 ottobre
1920) è stato un medico statunitense che, agli inizi del ventesimo
secolo ad Haverhill (Massachusetts), ha cercato di
misurare la massa ipoteticamente persa da un essere umano quando l'anima lascerebbe il
corpo al momento della morte.
Nel 1907 MacDougall pesò sei persone al momento del
trapasso, riportando i risultati a sostegno della sua teoria che l'anima avesse
un peso. Nel marzo 1907, i risultati di MacDougall vennero pubblicati dal New
York Times e dalla rivista di medicina American Medicine.
La teoria di MacDougall, per cui il peso dell'anima umana
sarebbe di 21 grammi, è divenuta un meme diffuso nella cultura
popolare e nell'arte,
sebbene i suoi studi siano ritenuti non scientifici (nessun dettaglio viene riportato
sul metodo utilizzato o sugli intervalli di misurazione).
Ha inoltre ispirato il titolo del film 21 grammi.
In conclusione
Appare chiaro che i confini dell’universo e della materia,
nelle quali si muovono i messaggi e le informazioni, sono molto diverse dalla loro
concezione comune.
Ad esempio, una domanda da farsi è : ammettendo che il termine
“peso” abbia un senso, quanto pesano tutte le anime e i pensieri?
O meglio, quanta massa e gravità muovono ? E che gravità,
quella micro o quella macro ?
E il peso è una tantum, vale a dire che è l’anima del mondo
che si ripartisce tra tutti oppure ad ogni nascita si genera una nuova
increspatura nel tessuto gravitazionale che resta li in accumulo perenne ?
E le altre creature ?
Facciamo un riepilogo tanto per dare un’idea.
Popolazione mondiale
7.000.000.000
Grammi cadauno
21
Kg totali
147.000.000
Tonnellate totali
147.000
Automobili totali - nr
147.000
Lunghezza totale – km (5 metri ad
auto)
735
Altri fattori culturali - Le sintesi di Clò
Alla trattazione precedente mancano alcuni aspetti
fondamentali, ovviamente.
Abbiamo voluto concentrarci solo su alcuni temi meno noti ai
più.
Per le “mancanze” rinviamo alle seguenti voci di wikipedia
Istruzione
Da Wikipedia, l'enciclopedia libera.
Istruzione pubblica, scolarizzazione, alfabetizzazione
Educazione
Letteratura
Da Wikipedia, l'enciclopedia libera.
Religione
Da Wikipedia, l'enciclopedia libera.
Editoria
Da Wikipedia, l'enciclopedia libera.
Musica
Da Wikipedia, l'enciclopedia libera.
Televisione
Da Wikipedia, l'enciclopedia libera.
Cinema
Il cinema è un'arte
performativa dello spettacolo basata sull'illusione
ottica di un'immagine in movimento.
Videogiochi
Da Wikipedia, l'enciclopedia libera.
Scienze cognitive e neurali – dai fattori culturali alla mente
Da Wikipedia, l'enciclopedia libera.
La psicologia cognitiva è una branca della psicologia
che ha come obiettivo lo studio dei processi mentali mediante i
quali le informazioni vengono acquisite dal sistema
cognitivo, elaborate, memorizzate e recuperate.
Descrizione
Essa studia il funzionamento della mente come elemento
intermedio tra il comportamento e l'attività cerebrale prettamente neurofisiologica.
Il modello di funzionamento è assimilato (metaforicamente)
a quello di un software
che elabora informazioni provenienti dall'esterno (input), restituendo
a sua volta informazioni (output) sotto forma di rappresentazione della conoscenza,
organizzata in reti semantiche e cognitive.
La percezione, la sensazione,
l'impressione, il pensiero, l'apprendimento,
il ragionamento,
la risoluzione dei problemi, la memoria, l'attenzione,
il linguaggio
e le emozioni
sono processi mentali studiati dalla psicologia cognitiva.
Il costruttivismo è stato spesso
considerato come una corrente del cognitivismo, pur mantenendo una sua
autonomia; alcuni dei suoi assunti epistemologici
di base sembrano però significativamente differenti da quelli tradizionali del cognitivismo
(George
Kelly, fondatore della psicologia dei costrutti personali, amava ripetere:
"sfatiamo il mito che il costruttivismo sia collegato al
cognitivismo").
Cenni storici
La psicologia cognitiva nasce verso la fine degli anni cinquanta
in parziale contrapposizione al comportamentismo.
Quest'ultimo aveva gettato le basi per una psicologia
fondata empiricamente.
Il cognitivismo accetta il rigore metodologico del
comportamentismo. Entrambe le discipline, infatti, si basano su una
scientificità di tipo naturalistico, nel comune intento di assimilare lo studio
della mente umana alle scienze naturali.
La seconda metà degli anni cinquanta
vide non solo il fiorire di nuove impostazioni teoriche e procedure
sperimentali, ma anche la diffusione di una prospettiva differente da quella
comportamentista dominante negli Stati Uniti: la prospettiva della psicologia
cognitiva o del cognitivismo.
Vi confluirono i contributi di discipline diverse: oltre
alla psicologia sperimentale di impronta neocomportamentista, la linguistica,
la teoria dell'informazione e la cibernetica,
le neuroscienze
e la filosofia della mente. Si considera
abitualmente come "data di nascita" del movimento cognitivista il
Convegno di Boulder (Colorado) del 1955, anche se alcuni fanno retrocedere questa
data al lavoro di Claude Shannon sulla teoria
dell'informazione del 1948 (Ndr: link a La
teoria dell'informazione e Claude
Shannon)
Oltre all'impostazione interdisciplinare, la psicologia
cognitiva aveva altri suoi aspetti caratteristici.
In primo luogo, si interessava dei
processi cognitivi (la percezione, l'attenzione, la memoria, il linguaggio, il
pensiero, la creatività), che erano stati trascurati dai comportamentisti o
considerati come dei prodotti dell'apprendimento.
A questi processi veniva
riconosciuta sia un'autonomia strutturale sia una interrelazione e
interdipendenza reciproche.
Un'altra importante caratteristica della psicologia
cognitiva è che la mente è concepita come un
elaboratore di informazione, avente un'organizzazione prefissata di tipo
sequenziale e una capacità limitata di elaborazione lungo i propri canali di
trasmissione.
L'analogia tra mente e calcolatore
era basata sulle nozioni di informazione, canale, sequenza di trasmissione ed
elaborazione dell'informazione, strutture di entrata (input) e uscita (output)
dell'informazione dell'elaboratore, strutture di memoria.
Per spiegare tale organizzazione strutturale e funzionale
si diffuse l'uso di diagrammi di flusso, formati da unità (scatole) e aventi
ciascuna compiti definiti (percezione, attenzione, ecc.) e da vie di
comunicazione.
Modelli cognitivi
Nei primi modelli cognitivistici, l'elaborazione
dell'informazione era concepita come un processo che avviene per stadi
consecutivi, terminate le operazioni proprie di uno stadio si passa al
successivo, e così via.
Negli anni '70 furono presentati
nuovi modelli che mettevano in evidenza sia la possibilità di retroazione
di uno stadio di elaborazione su quelli precedenti, sia la possibilità che si attivassero le operazioni di uno stadio successivo senza che
quelli precedenti avessero già elaborato l'informazione per quanto li
riguardava.
Un altro aspetto importante fu l'accentuazione
del carattere finalizzato dei processi mentali.
Il comportamento veniva ora
concepito come una serie di atti guidati dai processi cognitivi ai fini della
soluzione di un problema, con continui aggiustamenti per garantire la migliore
soluzione.
La nozione di “retroazione”,
feedback, sviluppata dalla cibernetica divenne centrale in questa concezione del
comportamento orientato verso una meta.
Lo psicologo sperimentale del linguaggio George Armitage Miller, con le sue opere
determinò un'autentica svolta nella rappresentazione del comportamento: il comportamento era visto come il prodotto di una
elaborazione dell'informazione, quale è compiuta da un calcolatore,
per lo svolgimento di un piano utile alla soluzione del
problema.
Il comportamento non era quindi l'epifenomeno di un arco
riflesso (input sensoriale, elaborazione, output motorio), ma il risultato di
un processo di continua verifica retroattiva del piano di comportamento secondo
l'unità TOTE (test, operate, test, exit): l'atto finale (exit) non consegue
direttamente ad un input sensoriale o a un comando motorio, ma è il risultato
di precedenti operazioni di verifica (test) delle condizioni ambientali, di
esecuzione (operate) intermedie e di nuove verifiche (test).
Nel 1967 uscì il libro Cognitive Psychology dello
psicologo statunitense Ulric Neisser nel quale venivano sintetizzate le
ricerche condotte nei dieci anni precedenti secondo la prospettiva che fu
definitivamente chiamata appunto cognitivistica.
La letteratura sperimentale sui processi cognitivi crebbe a
dismisura sostituendo le prospettive passate con la nuova prospettiva che si
diffuse anche in campo della psicologia sociale e della psicopatologia.
È comprensibile quindi che nei primi anni '70 si parlasse
ormai di rivoluzione cognitivistica nella ricerca psicologica.
Neuroscienze
https://it.wikipedia.org/wiki/Neuroscienze
Da Wikipedia, l'enciclopedia libera.
Tradizionalmente, le neuroscienze sono state viste come un
ramo della biologia;
attualmente sono un campo interdisciplinare
che collabora con altri ambiti di studio come ad esempio chimica, informatica,
ingegneria,
linguistica,
psicologia,
sociologia,
matematica,
medicina e
discipline collegate, filosofia, fisica.
Il termine neurobiologia di solito è usato in modo
intercambiabile con il termine neuroscienze, anche se il primo si riferisce
specificamente alla biologia del sistema nervoso, mentre il secondo si
riferisce a tutta la scienza del sistema nervoso.
L'ambito delle neuroscienze si è ampliato per includere
diversi approcci utilizzati per studiare gli aspetti molecolari, cellulari, dello sviluppo,
strutturali,
funzionali,
evoluzionistici, computazionali e medici del sistema
nervoso.
Si sono ampliate enormemente anche le tecniche utilizzate
dai neuroscienziati, che sono attualmente in grado di studiare dagli aspetti
molecolari delle singole cellule nervose, fino al funzionamento complessivo del
cervello tramite l'utilizzo di tecniche di neuroimaging funzionale.
Le neuroscienze sono avanzate e progrediscono tuttora anche
grazie allo studio delle reti neurali.
A causa del numero crescente di scienziati
che studiano il sistema nervoso, diverse organizzazioni di spicco delle
neuroscienze si sono formate allo scopo di fornire un forum per tutti i neuroscienziati e gli
educatori. Ad esempio, nel 1960 è stata fondata l'International
Brain Research Organization,[2] nel
1963 l'International
Society for Neurochemistry,[3] la European
Brain and Behaviour Society nel 1968,[4] e
la Society for
Neuroscience nel 1969.[5]
Le neuroscienze moderne
Il sistema nervoso
umano.
Lo studio scientifico del sistema nervoso è
aumentato significativamente nel corso della seconda metà del XX secolo,
principalmente grazie ai progressi nella biologia molecolare, dell'elettrofisiologia
e delle neuroscienze computazionali.
Questo ha permesso ai neuroscienziati di studiare il sistema
nervoso in tutti i suoi aspetti: come è strutturato, come funziona, come si
sviluppa, il suo cattivo funzionamento, e come quest'ultimo possa essere
cambiato. Per esempio, è diventato possibile comprendere, in molti dettagli, i
complessi processi che si verificano all'interno del singolo neurone.
I neuroni sono cellule
specializzate per la comunicazione.
Essi sono in grado di contattare altri neuroni e altri tipi
di cellule attraverso le giunzioni specializzate chiamate sinapsi,
mediante le quali segnali elettrochimici o elettrici possono essere trasmessi
da una cellula all'altra.
Molti neuroni estrudono lunghi filamenti sottili di
protoplasma chiamati assoni, che possono giungere a parti distanti del corpo e sono
in grado di portare rapidamente segnali elettrici, influenzando l'attività di
altri neuroni, muscoli o ghiandole presso i loro punti terminali. Un sistema
nervoso emerge dall'assemblaggio di neuroni che sono collegati tra loro.
Nei vertebrati, il sistema nervoso può essere suddiviso in
due parti, il sistema nervoso centrale (cervello e midollo
spinale), e il sistema nervoso periferico.
In molte specie - compresi tutti i vertebrati - il sistema
nervoso è il sistema organico più complesso del corpo, con la maggior parte
della complessità che risiede nel cervello.
Il cervello da solo contiene circa cento miliardi di neuroni e
100.000 miliardi di sinapsi, si compone di migliaia di sottostrutture
distinguibili, collegate tra loro in reti sinaptiche i cui meandri hanno
cominciato solo adesso ad essere svelati.
La maggioranza dei circa 20-25.000
geni appartenenti al genoma umano sono espressi specificatamente nel cervello.
A causa della plasticità del cervello umano, la struttura delle sue
sinapsi e le funzioni risultanti cambiano durante la vita.[13]
Così, la sfida di dare un senso a tutta questa complessità
è formidabile.
Neuroscienze molecolari e cellulari
Lo studio del sistema nervoso può essere fatto a più livelli,
che vanno dal livello molecolare e cellulare ai sistemi e livelli cognitivi.
A livello molecolare, le questioni fondamentali affrontate
nelle neuroscienze molecolari
comprendono i meccanismi con cui i neuroni si esprimono rispondendo ai segnali
molecolari e come gli assoni formino configurazioni complesse di connettività.
A questo livello, vengono utilizzati gli strumenti della biologia molecolare e della genetica per
capire come i neuroni si sviluppano e come i cambiamenti genetici influenzino
le funzioni biologiche.
La morfologia, l'identità molecolare e le
caratteristiche fisiologiche dei neuroni, e come queste siano connesse a
diversi tipi di comportamento, sono inoltre argomenti di notevole interesse.
Le domande fondamentali affrontate nelle neuroscienze cellulari
comprendono i meccanismi di come i neuroni processino i segnali fisiologicamente ed
elettrochimicamente.
Queste questioni includono come i segnali vengano elaborati
dalle neuriti - estensioni sottili del corpo
cellulare neuronale, composte da dendriti (specializzate nel ricevere gli
ingressi sinaptici da altri neuroni) e assoni
(specializzati nel condurre gli impulsi nervosi chiamati potenziali d'azione) - e dai soma
(i corpi cellulari dei neuroni contenenti il nucleo), e come segnali da neurotrasmettitori e elettrici vengano utilizzati
per elaborare le informazioni in un neurone.
Un altro importante settore delle neuroscienze è rivolto
alle indagini sullo sviluppo del sistema nervoso.
Tali questioni comprendono la regionalizzazione
del sistema nervoso, le cellule
staminali neurali, la differenziazione di neuroni e glia, la migrazione neurale, lo sviluppo assonale e
dendritico, le interazioni trofiche e la formazione di sinapsi.
Circuiti neurali e sistemi
Lo stesso argomento in
dettaglio: Reti neurali e Neuroscienze sistemiche.
|
A livello sistemico, le questioni affrontate nelle neuroscienze sistemiche riguardano come i
circuiti neurali vengano formati ed utilizzati anatomicamente e fisiologicamente
per la produzione di funzioni come i riflessi, l'integrazione sensoriale,
la coordinazione motoria, i ritmi
cicardiani, le risposte emotive, l'apprendimento
e la memoria.
In altre parole, le neuroscienze sistemiche si indirizzano
su come questi circuiti neurali funzionano e sui meccanismi attraverso i quali
vengono generati i comportamenti.
Per esempio, l'analisi a livello di sistemi affronta
questioni riguardanti specifiche modalità sensoriali e motorie: come lavora la visione?
Come fanno gli uccelli canori a imparare nuove canzoni e i pipistrelli
a localizzarsi con l'ecografia? Come fa il sistema somatosensoriale a processare le
informazioni tattili? I campi correlati della neuroetologia
e neuropsicologia indirizzano la questione su come i
substrati neurali sottintendano a specifici comportamenti
animali e umani. La Neuroendocrinologia e la
psiconeuroimmunologia
esaminano le interazioni tra il sistema nervoso e i sistemi endocrino
e immunitario,
rispettivamente. Nonostante i molti progressi, il modo in cui le reti di
neuroni producano cognizione e comportamenti
complessi è ancora poco conosciuto.
Neuroscienze cognitive e comportamentali
Lo stesso argomento in
dettaglio: Neuroscienze cognitive.
|
A livello cognitivo, le neuroscienze cognitive affrontano la
questione di come le funzioni psicologiche sono
prodotte dai circuiti neurali.
L'emergere di nuove e potenti tecniche di misurazione, come
quelle della neuroimaging (es. fMRI, PET, SPECT), dell'elettrofisiologia
e dell'analisi
genetica umana combinate con sofisticate tecniche sperimentali
della psicologia cognitiva, permette a neuroscienziati
e psicologi
di affrontare questioni astratte come ad esempio il modo in cui la cognizione
umana e l'emozione sono mappate da substrati neurali specifici.
Le Neuroscienze sono alleate anche con le scienze
sociali e comportamentali,
nonché con campi interdisciplinari nascenti come la neurosociologia,
la neuroeconomia,
la teoria della decisione
e le neuroscienze sociali
per affrontare questioni complesse sulle interazioni del cervello con il suo
ambiente.
In ultima analisi i neuroscienziati
vorrebbero comprendere ogni aspetto del sistema nervoso, compreso come
funziona, come si sviluppa, il suo cattivo funzionamento, e come può essere
modificato o riparato.
Gli argomenti specifici che costituiscono i principali
focolai di ricerca cambiano nel tempo, guidati da una base
in continua espansione di conoscenze e dalla disponibilità di mezzi tecnici
sempre più sofisticati.
Nel lungo termine, i miglioramenti nella tecnologia sono
stati i volani principali del progresso. Sviluppi in microscopia elettronica, computer,
elettronica, nell'imaging funzionale del cervello, e più recentemente nella genetica e
nella genomica,
sono stati tutti fattori determinanti per il progresso.
Ricerca traslazionale e medicina
Neurologia, psichiatria,
neurochirurgia,
psicochirurgia, anestesiologia,
neuropatologia, neuroradiologia,
neurofisiologia clinica
e medicina della
dipendenza sono le specialità mediche che riguardano le malattie del
sistema nervoso.
Questi termini si riferiscono anche alle discipline
cliniche che coinvolgono la diagnosi e il trattamento di queste malattie.
La neurologia lavora con
malattie del sistema nervoso centrale e periferico, come ad esempio la sclerosi laterale amiotrofica (SLA) e
l'ictus, e con il
loro trattamento medico.
L'anestesiologia si
concentra sulla percezione del dolore, e sull'alterazione farmacologica della
coscienza.
La neuropatologia si
concentra sulla classificazione e sui meccanismi patogenetici alla base delle
malattie del sistema nervoso centrale e periferico e dei muscolari, con
particolare attenzione alle alterazioni morfologiche, osservabili al
microscopico e chimicamente.
La neurochirurgia e la
psicochirurgia lavorano principalmente con il trattamento chirurgico delle
malattie del sistema nervoso centrale e periferico.
I confini tra queste specialità si stanno recentemente
confondendo in quanto sono tutte influenzate dalla ricerca di base nel campo delle neuroscienze.
L'imaging cerebrale consente
dati oggettivi, biologici sulle malattie mentali, che possono portare a diagnosi
più veloci, prognosi più accurate, e contribuirà a valutare i progressi del
paziente nel corso del tempo.[14]
Le neuroscienze
integrative mettono a fuoco le connessioni tra queste aree specializzate.
Filosofia della mente
Da Wikipedia, l'enciclopedia libera.
La filosofia
della mente è lo studio filosofico della mente, degli atti, della coscienza e delle funzioni mentali e delle loro relazioni con il cervello, il
corpo e il mondo.
La filosofia
della mente si addentra nelle questioni di fondo e nei problemi metodologici che
stanno dietro la ricerca scientifica sulla mente, usando sia il
metodo speculativo (attraverso esperimenti mentali), sia tenendo conto dei
risultati ottenuti nella ricerca empirica e
strumentale, che oggi può avvalersi della PET, la tomografia ad
emissione di positroni, e della fMRI, la risonanza magnetica funzionale per immagini.
Lo schema della complessita’ secondo Clò – memi da qbit
Se la cercavate la complessità, adesso sapete dove trovarla.
Concludiamo qui l’excursus nell’universo di
- informazioni
- suoi trasporti
- sue aggregazioni e
- sue elaborazioni.
Si potrebbe andare avanti all’infinto.
Ma per ora basti dire che ogni voce trattata è evidentemente
collegata a tutte le altre sia in flussi di andata che di ritorno.
Vale a dire che fa sia da soggetto che da oggetto.
E’ la complessità.
E dove ci porta tutto cio ?
La risposta ovvia dovrebbe venire a tutti in mente: ci porta
alla civiltà dell’intelletto.
Ok, preso, ci abbiamo beccato.
Ma l’intelletto che cosa è?
E la civiltà ?
Abbiamo scritto quanto segue
in 2014
08 05 – Ramadan e Fioretti. Psichiatria quantica, ricomposizione di opposti,
new economy, speranza e civiltà dell’intelletto. a proposito del pensiero
marginale nella civiltà dell’intelletto.
“In economia esiste il
concetto di utilità marginale. L'utilità marginale di un bene è concetto
cardine della teoria neoclassica del valore in economia ed è definibile come
l'incremento del livello di utilità, ovvero della soddisfazione che un
individuo trae dal consumo di un bene, ricollegabile ad aumenti marginali nel
consumo del bene, dato e costante il consumo di tutti gli altri beni.
La condizione di
equilibrio afferma che ogni individuo effettua le proprie scelte di consumo in
modo che ogni singolo bene fornisca le stesse utilità marginali per euro di
spesa. Il principio di utilità marginali uguali per euro di spesa per ciascun
bene afferma che la condizione essenziale per ottenere massimo soddisfacimento
o utilità è la seguente: “di fronte ai prezzi di mercato dei beni, un
consumatore con reddito dato ottiene il massimo soddisfacimento quando
l'utilità marginale dell'ultimo euro speso per un bene è esattamente uguale
all'utilità marginale dell' ultimo euro speso per qualsiasi altro bene”.
Ecco, il compimento
della civiltà dall’intelletto sarà fatto quando il pensiero di qualsiasi essere
umano (o forse addirittura vivente) avrà la stessa utilità marginale di quello
di chiunque altro. Così la intendo io.
7 miliardi di cervelli
interconnessi (forse molti di più, finché succederà) che fanno da sinapsi in un
continuo flusso fisico di scambi informativi, o meglio ancora ideativi.
Per arrivare a questo
servirà la diffusione omnipervasiva di ogni forma di conoscenza. Medica,
tecnologica, scientifica, filosofica, etica, religiosa e di ogni genere
esistente.
E naturalmente servirà
la diffusione omnipervasiva dell’ intelligenza.
Perché è la conoscenza
che alimenta il libero arbitrio. E in ultima analisi le decisioni di azione.
Ed è l’intelligenza che
consente di elaborare le informazioni per scegliere cosa decidere.
Ma non solo: ogni
conoscenza sarà naturalmente asservita al bene comune, che sarà noto a tutti.
E che pertanto non
ammetterà manipolazioni oligarchiche.
Non sarà neppure
immaginabile o concepibile alcuna forma di appropriazione indebita di idee, o
di utilizzo non comune.
Quando tutto questo
avverrà, sarà perchè saremo in una situazione di equilibrio, dinamico ma
perfetto, che potrà essere modificata da uno qualsiasi di questi pensieri.
In parole povere,
chiunque potrà elaborare un pensiero nuovo che serva a fare qualsiasi cosa,
piccola o grande, in un altro modo migliore.
E tutti lo
riconosceranno istantaneamente, senza alcun conflitto.
E in questa situazione
il valore dell’ultimo pensiero pensato sarà uguale a quello di qualsiasi altro
pensiero.
Questa è la vera
speranza, nemmeno più sogno.
Un mondo senza armi,
senza fame, senza malattie, senza povertà, e soprattutto senza il danaro di
oggi, dove l’unità di scambio sia invece la nanoparticella elementare di
pensiero. Lo psicoquanto.
Dove sette miliardi di
cervelli siano in costante interscambio reciproco, in un costante flusso
andata/ritorno di pensieri e feedback,
Non sarà uno scambio uno
a uno.
Sarà un continuum di
energia omnidirezionale e pulsantemente pervasiva che tenderà per sua natura, o
struttura, a livellarsi.
A distribuirsi omogeneamente
e istantaneamente proprio come un fluido
nei vasi comunicanti.
Per questo parlo spesso
di Neuro.
Il Neuro è la mia idea
di unità di scambio, di misurazione e infine di moneta, di questo nuovo mondo
autolivellante alla velocità della corrente elettrica, della luce.
Non sarà un P 2 P.
Sarà un ∞ 2 ∞
Una specie di
psicobaratto istantaneamente infinito.
Questa era la mia
utopia, questa è la mia speranza.”
Ma ora rispetto alla trattazione di questo libro dobbiamo
tornare a chiederci cosa sia questo intelletto, e come possa diventare civiltà,
stante la realtà dei fatti ad oggi noti.
Dunque, l’intelletto che cosa è?
Per wikipedia https://it.wikipedia.org/wiki/Intelletto
L'intelletto (dal latino
intellectus,-us, derivato dal participio passato del verbo intellìgere
= intellègere, composto da intus e lègere che significa
«leggere dentro»,[1] o
diversamente da inter e lègere, nel senso di «raccogliere,
scegliere»)[2]
genericamente può essere definito come la facoltà della mente umana di
intendere, concepire pensieri, elaborare concetti e
formulare giudizi. La prima etimologia accenna
all'intelletto come una facoltà capace di cogliere l'essenzialità che è all'interno (intus)
delle cose e dei fatti.[3]
intellètto2 s. m. [dal lat. intellectus -us,
der. di intelligĕre
«intendere», part. pass. intellectus].
Per il vocabolario Treccani.
intellètto1 part. pass. [dal lat. intellectus, part. pass. di intelligĕre «intendere»],
letter. ant. – Inteso, conosciuto dalla mente: O luce etterna che sola in te sidi, Sola t’intendi, e da te intelletta E intendente te ami e
arridi! (Dante); parole
Intellette da noi soli ambedui (Petrarca).
a.
In filosofia, la facoltà, propria dello spirito, di intendere le idee, di
formare i concetti, di formulare giudizî, intesa generalmente come la fonte
essenziale della conoscenza che è propria della scienza, distinta quindi da
altre facoltà dello spirito (ragione, sensibilità, volontà, ecc.): già mai non si sazia Nostro i.,
se ’l ver non lo illustra
(Dante); Mio ben non cape in i.
umano (Petrarca); percepire, comprendere con l’i.; le forze, il vigore, il lume dell’i. (e fig., gli occhi dell’i.); verità che illumina, che rischiara l’i.; le passioni velano l’i.; l’ira gli offuscò l’intelletto.
Nella dottrina cattolica, è incluso tra i sette doni dello Spirito Santo. Per l’i. agente della filosofia aristotelica, v. agente
(nel sign. 1).
b.
Per estens., nel linguaggio com., la capacità d’intendere e di ragionare
(sinon., in genere, d’intelligenza):
uomo di alto, grande, forte, vigoroso i. (anche senza
attributo: un uomo d’i.);
persona priva d’i., di scarso i., d’i. grosso (cioè grossolano,
rozzo), d.’i. corto; trarre,
o far uscire, uno d’i., farlo impazzire, o
anche renderlo cieco di furore, di rabbia, di passione, ecc.; perdere l’i., la facoltà
d’intendere, la ragione; più com., con lo stesso sign., perdere il ben dell’i.
(espressione tratta dal passo della Divina Commedia: le genti dolorose C’hanno perduto il ben
de l’i., dove però il
ben de l’i. è, secondo l’interpretazione della maggior parte dei
commentatori, Dio, la visione del Vero assoluto); analogam., non avere il ben dell’i.,
essere stolto, deficiente.
2. Per metonimia, l’uomo stesso, in quanto è dotato d’intelletto: è manifesto a li sani i. (Dante). In partic., persona di singolari doti intellettuali (cfr. ingegno, genio): è un bell’i., un nobile i.; uno dei più grandi i. del suo tempo; e con sign. più generico: ove speme di gloria agli animosi Intelletti rifulga ed all’Italia, Quindi trarrem gli auspici (Foscolo). Riferito talvolta anche a Dio (il divino, il primo i.) e agli angeli (gli i. celesti).
2. Per metonimia, l’uomo stesso, in quanto è dotato d’intelletto: è manifesto a li sani i. (Dante). In partic., persona di singolari doti intellettuali (cfr. ingegno, genio): è un bell’i., un nobile i.; uno dei più grandi i. del suo tempo; e con sign. più generico: ove speme di gloria agli animosi Intelletti rifulga ed all’Italia, Quindi trarrem gli auspici (Foscolo). Riferito talvolta anche a Dio (il divino, il primo i.) e agli angeli (gli i. celesti).
E la civiltà ?
Della quale abbiamo dato qualche definizione in Cosa è la cultura ? E la civiltà ?
Ad ognuna di queste domande la risposta è un’altra domanda.
Inutile dire, quindi, che oggi non abbiamo una risposta
precisa.
Possiamo dire che siamo in un classico anello di retroazione
in cui giriamo su noi stessi.
Siamo in un loop.
Ma i loop possono anche avere una buona utilità.
A volte si “arrotolano su se stessi”, ma a volte invece
palesano una via d’uscita proprio come su di una rotonda stradale.
E allora ecco la nostra intuizione .
E se le civiltà dell’intelletto fosse qualcosa di analogo alle
mutazioni genetiche a rilascio cosmico graduale di cui abbiamo già parlato ? 2015
05 25 - Storia dell' altro mondo di Clò - Fantascienza con logica, innovazione
e proprietà intellettuale
E se oggi stessimo semplicemente assitendo all’upload della
coscienza collettiva in quelle individuali ?
Se stessimo semplicemente assitendo ad un preordinato
“riempimento” dell’80% di cervello non utilizzato da ogni essere umano ?
E se fosse tutto già scritto in un piano per la replicazione
in corso del nostro universo ?
Abbiamo evidenziato al paragrafo Il
qubit quanto segue.
Paradossalmente ci sono un numero infinito di combinazioni lineari della base
ortonormale così da permettere, almeno in linea
di principio, la rappresentazione in un unico qubit di tutto lo scibile umano.”
Sembra dunque una sorta di big bang della conoscenza.
Ma torniamo ad una dimensione più materiale.
Riprendiamo la distinzione di F. Capra già menzionata in Telecomunicazioni : l’hardware della civilta’
dell’intelletto.
E per meglio specificare cosa intendiamo con “tutto già
scritto”, chiediamoci : e se esistesse uno schema originale in base al quale
tutto sta accadendo come noi lo percepiamo?
In tutto il nostro ragionamento, non si può prescindere dal
supporto hardware, da quello software e da quello biologico, che sono gli
aspetti toccati in varie fasi.
Ma secondo Capra, sono 3 le dimensioni di un sistema
complesso.
Esistono infatti :
- Schema
- Struttura
- Processo
Riprendendo il suo esempio, una bicicletta è un sistema
complesso che ha :
- Uno schema generale vale a dire “2 ruote+1 telaio”
- Una struttura, vale a dire la manifestazione fisica dello schema che può comportare un distinguo tra una mountain bike e una bici da corsa.
- Un processo, vale a dire l’insieme di meccanisi in movimento che la fanno funzionare.
Anche nel caso della cultura e dei valori, e quindi della
civiltà, vale questo esempio.
Siamo sempre nel dominio dei sistemi adattivi compessi.
In questo caso, la struttura
è in larga parte quella delle “comunicazioni” nelle loro varie declinazioni
così raggruppabili:
- hardware e
- software, e
- biologica, dei “cervelli umani”
I processi sono
quelli di flusso tra le 3 componenti che vengono interconnesse, attivate e
stimolate in un continuo flusso di energie.
E’ questa stessa conformazione di flussi energetici che
risponde alla nozione di “marchingegno rotante” (la cui rotazione sarebbe lo
schema) che abbiamo menzionato più volte ed al quale riconduciamo molti
fenomeni strabilianti a cui stiamo assistendo.
Ed’ questa stessa struttura, che noi distinguiamo erroneamente
in hardware per rispetto al software, che riconduce gli intelletti individuali
all’intelligenza collettiva nidificandosi nei vari web e cloud e altri supporti
più o meno “tangibili”.
Penso al tessuto spazio-tempo-gravità, in particolare.
E’ proprio questo “oloware”, o se preferite “olisticware” che
permette la funzione di processo, e fa funzionare tutta l’architettura.
In tale ambito è infatti vero che l’architettura fisica e/o
logica è talmente complessa e articolata, come lo è quella software, che non ha
senso prescindere da una o dall’altra.
In sintesi, l’idea di fondo è che esiste un cervello mondo,
di cui facciamo parte, che in parte si autodetermina da solo e che noi possiamo
monitorare nel suo sviluppo.
E questo cervello mondo è produttore di pensiero, si, ma in
particolare in forma di energie “meta-fisiche” che ci espandono nell’universo.
E tutto questo avviene secondo un preciso schema.
Schèma – Vocabolario treccani
schèma
s. m. [dal lat. schema,
gr. σχῆμα -ματος «forma, aspetto, configurazione», da un tema
di ἔχω «possedere, avere»] (pl. -i).
1.
Modello convenzionale, semplificato rispetto alla più
complessa realtà di un problema, di un fenomeno, di un oggetto, di un
meccanismo, di un processo: lo
s. di un impianto elettrico; lo s. di un motore a scoppio; lo s. della struttura di un aereo.
Più in partic., nella tecnica, s. grafico (o semplicemente schema), grafico costituito da un
insieme di segni convenzionali opportunamente coordinati, destinato a dare una
rappresentazione semplificata della struttura di una macchina e del suo modo di
funzionare, o dell’insieme delle fasi di un processo, o delle varie parti di un
impianto, di un sistema, ecc.: schema d’insieme e s. parziali, che riproducono, rispettivamente, l’insieme
dell’impianto o soltanto parti di esso; schemi di principio (o teorici), a carattere esclusivamente simbolico, s. pratici (o topografici, o di montaggio), che
rappresentano invece le varie parti dell’impianto nelle loro effettive proporzioni
o posizioni reciproche, e s.
funzionali, fondati sul criterio di rappresentare i varî elementi
di un apparato nell’ordine in cui essi intervengono normalmente nel
funzionamento dell’apparato medesimo.
A quest’ultimo tipo appartiene lo s. a blocchi (detto anche stenogramma), costituito da una serie di riquadri tra loro collegati da
linee, frecce, ecc., nei quali sono scritte le funzioni delle varie parti del
sistema: è usato per dare una rappresentazione semplificata e funzionale di
apparecchiature molto complesse, oppure di attività o di fenomeni che si
sviluppano in una serie di fasi variamente collegate (attività
commerciali, lavorazioni industriali, processi chimici o biologici, ecc.); in
partic., quelli nei quali sono rappresentate linee elettriche si dicono s. multifilari se ciascuno dei
fili di ogni linea è indicato con un tratto, e s. unifilari se tutti i fili di una stessa linea sono
indicati con un unico tratto.
In fisica, modello astratto che,
eliminando gli elementi che si presumono trascurabili, permette di descrivere
(per esempio in forma matematica) fenomeni naturali la cui complessità
impedisce di considerarne simultaneamente tutti gli aspetti; lo stesso
fatto reale può essere rappresentato da schemi diversi a seconda della natura
del problema in esame: per es., per la rappresentazione della struttura
materiale di uno stesso corpo possono essere adottati s. macroscopici (punto
materiale, sistema continuo, ecc.), suggeriti dal comportamento esteriore del
corpo e quindi convenienti alle necessità della tecnica, oppure s. microscopici, che meglio
rispecchiano l’intima struttura della materia.
2.
In senso più ampio, la configurazione stessa di una
qualsiasi struttura, nell’insieme delle sue parti e nella distribuzione dei
singoli elementi; per es., in botanica, s. fiorale, lo stesso che diagramma fiorale (v. diagramma, n.
2 c).
Con accezione partic., in
neuropatologia, s.
corporeo (o anche immagine
corporea), immagine spaziale del proprio
corpo percepito dal cervello come unità, oltre che come un oggetto nello
spazio, indipendente da altri oggetti presenti nell’ambiente; fondato su
dati sensoriali multipli, propriocettivi ed esterocettivi, esso è considerato
necessario alla vita poiché le diverse impressioni visive, tattili e
soprattutto muscolari ci informano sulla posizione del nostro corpo grazie a un
confronto che avviene, a livello di corteccia cerebrale, tra tali impressioni e
questo schema rappresentativo.
3.
Nella metrica classica, s. metrico (o assol. schema), la successione costante delle brevi, delle lunghe o delle
sillabe ancipiti di un verso, indicate con segni convenzionali: lo s. di un esametro, di un pentametro.
Nella metrica italiana, la disposizione delle rime in una
strofa, espressa con lettere dell’alfabeto: una quartina rimata secondo lo s. ABBA.
4.
Piano preliminare, più o meno semplificato, di un
lavoro qualsiasi: s. di
una bonifica; s. di
risanamento; s.
della nuova circolazione stradale nel centro storico; anche, serie
di appunti, traccia, abbozzo: lo
s. di un romanzo, di
un articolo; preparare
lo s. di una nuova grammatica; s. di legge, proposta di legge presentata all’approvazione
del parlamento; in astrologia, s.
natale, l’oroscopo. Negli sport a squadre, modello tattico della
disposizione in campo dei giocatori: l’allenatore ha modificato lo s. di gioco.
5.
fig. Modello rigido e chiuso, spec. nel campo
letterario, artistico, filosofico, politico e sim.: la ribellione dei romantici contro gli s.
del classicismo; come
pittore è rimasto legato agli s. dell’accademismo; anche con riferimento a comportamenti, a modelli etici, spec.
se rigidi e superati: ormai
vive aggrappato agli s. morali della sua giovinezza; non riesce a liberarsi dai suoi s.
borghesi; concepisce
il ruolo della donna secondo uno s. ormai superato; esiste solo uno s. astratto che divide le
parole e le cose in zone per poter affrontare separatamente sesso, intelligenza, amore (Enrico Palandri).
6.
In filosofia, termine introdotto dall’atomismo per
indicare la forma geometrica che caratterizza gli atomi; nella filosofia di
Aristotele, ciascuna delle quattro figure che il sillogismo può assumere a
seconda della posizione del medio nelle premesse (v. figura,
n. 8).
In partic., nella filosofia kantiana,
s. trascendentali, le determinazioni a priori del tempo elaborate
dall’intelletto (mediante lo schematismo)
sulla base delle varie categorie: consentono l’applicazione di queste
ultime ai fenomeni, che sono pertanto unificati e resi intellegibili: la permanenza nel tempo è lo s. della
categoria di sostanza; il
numero è lo s. della quantità; sempre nella filosofia kantiana, s. puro, ogni rappresentazione
sensibile che esibisce direttamente un concetto puro dell’intelletto, sia esso
determinato, come nel caso delle categorie, sia esso indeterminato, come nella
rappresentazione del bello.
7.
In logica matematica, s. di assiomi, un insieme finito di assiomi che viene sinteticamente
rappresentato con un’unica formula, in cui uno o più simboli restano
imprecisati (specificandoli, si ottengono tutti gli assiomi che si vogliono
indicare).
Resta solo una domanda.
Ma qualcuno sa cosa sta succedendo ?
Qualcuno conosce lo schema ?
Qualcuno controlla i suoi processi ?
Rinviamo ai seguenti paragrafi.
Grande Fratello (1984)
Da Wikipedia, l'enciclopedia libera.
Il Grande Fratello (in inglese
Big Brother, fratello maggiore) è un personaggio immaginario creato da George
Orwell, presente nel romanzo 1984.
È il dittatore
dello stato totalitario chiamato Oceania.
Nella società che Orwell descrive,
ciascun individuo è tenuto costantemente sotto controllo dalle autorità.
Lo slogan "Il Grande Fratello vi guarda" ricorda
continuamente agli abitanti la sua superiorità assoluta nella piramide gerarchica.
Nel romanzo 1984
non viene mai chiarito se il Grande Fratello sia una persona reale e vivente o,
piuttosto, semplicemente un simbolo creato dal partito; nel libro si fa più
volte riferimento a tale questione, ma la domanda non avrà mai risposta.
Quando Winston Smith chiede esplicitamente a O'Brien, durante la tortura, se il Grande
Fratello "Esiste come esisto io?", egli gli risponde "Tu non
esisti" (il che preconizza il suo destino: essere ucciso e cancellato
dagli archivi come se non fosse mai esistito), di fatto non rispondendo alla
domanda. In questo caso rimane anche l'ulteriore dubbio che nemmeno O'Brien lo
sappia.
Nel libro del ribelle Emmanuel Goldstein è presente questa frase: «Nessuno ha mai visto il Grande Fratello. È un volto sui
manifesti, una voce che viene dal teleschermo. Possiamo essere ragionevolmente
certi che non morirà mai. Già adesso non si sa con certezza quando sia nato. Il
Grande Fratello è il modo in cui il Partito sceglie di mostrarsi al mondo. Ha
la funzione di agire da catalizzatore dell'amore, della paura e della
venerazione, tutti sentimenti che è più facile provare per una singola persona
che per una organizzazione.»[1]
Secondo Goldstein, quindi, il Grande Fratello potrebbe essere solo
un'icona, una personificazione del Partito.
Nella propaganda del Partito il Grande Fratello viene presentato
come una persona reale, uno dei fondatori del Partito stesso insieme allo
stesso Goldstein. La descrizione fisica del Grande Fratello ricorda Joseph
Stalin mentre Goldstein ricorda l'antagonista del dittatore sovietico: Trotsky.
Intelligence
Da Wikipedia, l'enciclopedia libera.
Voci principali
|
|
Voci correlate
|
Categoria:
|
L'informazione militare o civile (più nota con il
termine inglese di intelligence) può essere
definita come la raccolta e la successiva analisi di
notizie e dati dalla cui elaborazione ricavare informazioni
utili al processo decisionale militare, nonché a quello relativo alla sicurezza nazionale ed alla prevenzione di attività destabilizzanti di qualsiasi
natura.
In senso più ampio vengono intese tutte le attività legate
al controspionaggio, e allo spionaggio.
Deputate a tale attività vi sono delle strutture statali,
identificate spesso con la locuzione di servizi
segreti.
Le fasi
Lo stesso argomento in
dettaglio: Gestione della raccolta di
intelligence.
|
L'attività di intelligence è composita.
L'acquisizione delle informazioni si realizza attraverso il
processo informativo,
che consta delle seguenti fasi:
- Pianificazione e direzione: nella quale gli organi di comando e direttivi interessati definiscono gli obiettivi informativi ritenuti necessari per le proprie decisioni; tali obiettivi vengono estrinsecati mediante l'elencazione di Elementi Essenziali di Informazione (EEI) ed Altri Elementi di Informazione (AEI), idonei a guidare le fasi successive del processo;
- Raccolta: nella quale vengono messe in atto tutte le attività di raccolta da parte degli Organi esecutivi del Servizio informazioni delle notizie riferite agli elementi definiti nella fase precedente; le notizie possono provenire dagli stessi Organi esecutivi mediante specifiche attività tecniche (intercettazione, interrogatorio, fotografia ecc.) ovvero da elementi esterni, chiamati "fonti";
- Elaborazione: nella quale le notizie raccolte vengono classificate, valutate e correlate fra di loro;
- Analisi e Produzione: nella quale le notizie afferenti ad ogni singolo elemento di informazione vengono elaborate in una informazione utilizzabile, della quale viene indicata l'affidabilità;
- Divulgazione: l'ultima fase si ricollega alla prima in quanto è la divulgazione dell'Informazione elaborata agli organi che avevano attivato il ciclo informativo nonché a tutti gli altri organi che possano averne necessità.
Le agenzie
Per meglio comprendere il funzionamento del processo
occorre tener presente che il Servizio di informazioni, o agenzia,
sia civile che militare, non è un corpo a sé stante ma fa parte della struttura
per la quale e nella quale opera.
Occorre altresì avere ben chiara l'idea che i diversi Servizi
informazioni o controspionaggio, sono sempre strettamente integrati fra di
loro, pur essendo prevalentemente orientati all'analisi di specifici problemi.
Le funzioni sono definite da normative di riferimento
costituite da leggi appositamente varate in ciascun Paese, per massimizzare e
tutelare le sue delicate funzioni.
L' agente di intelligence
La locuzione agente di intelligence viene usata per
descrivere un membro delle forze armate, un agente di polizia o di un'agenzia di spionaggio civile che si
specializza nell'ottenere, mettere insieme, e analizzare informazioni in favore
del governo o di un'altra organizzazione.
Tipologie dell'attività
- COMINT: Communications intelligence
- ELINT: Electronic intelligence
- HUMINT: Human intelligence
- IMINT: Imagery intelligence
- SIGINT: Signals intelligence
- TECHINT: Technical intelligence
- OSINT: Open Source intelligence
- MASINT: Measurement and Signature intelligence
- ACINT: Acoustics intelligence
L’opinione di Clò - Apologia del Grande Fratello
Meno male che adesso c’è il Fratellone.
Così possiamo riassumere il nostro punto di vista.
Ma più in dettaglio vale la pena di soffermarsi sul dato
emergente relativo al paragrafo Intelligence, il quale dato è che tutto, ma
davvero tutto, viene monitorato.
Si tenga poi conto che nella sintesi precedente non si parla
di sicuro di tutte le attività anche delegate a soggetti privati, o para
militari o di altro tipo.
Tanti anni fa, quando Clò lavorava
sulla Telecom per i sindacati, conobbe un personaggio oggi molto noto in ambito
politico, che gli mostrò alcune schematizzazioni di rete di dati del web definendo
il suo come il lavoro di “monitorare come la rete si autodetermina”.
Era un primo accenno alla questione
del “cervello mondo” in fase di autorganizzazione emergente.
Per coordinare tale autoemergenza è verosimile che
l’attività del Grande Fratello non si limiti solo al controllo, ma possa anche
derivare in ambito manipolatorio.
La Manipolazione
psicologica è un tipo di influenza sociale finalizzata a cambiare la
percezione o il comportamento degli altri usando schemi e metodi subdoli e
ingannevoli che possono anche sfociare nell'abuso sia psicologico che fisico.[1]
Il fine ultimo perseguito dal manipolatore è la soddisfazione dei propri
interessi, di norma a spese degli altri.
L'influenza sociale in sé non
assume una connotazione negativa, contrariamente alla manipolazione; si prenda
ad esempio il medico che sfrutta il suo ruolo e l'asimmetria di conoscenze per
indurre il paziente ad abbandonare stili di vita insalubri e dannosi.
L'influenza sociale assume una connotazione addirittura positiva quando è priva
di elementi coercitivi, lasciando libera la persona attenzionata, di accettare
o rifiutare gli schemi proposti; in tal caso si parla di persuasione, da non
confondere con comunicazione efficace.
Sono il contesto e le motivazioni a
determinare la natura benevola o malvola della manipolazione.
E’, d’altra parte, una pratica a cui siamo ben abituati
dalla televisione, ad esempio, ragione per la quale non dovrebbe farci più
impressione di tanto.
Quello che oggi distingue queste attività di controllo e
indirizzamento è la sofisticazione teconologica.
Alla fine de 2015
05 31 - Il tempo e la synvoluzione chirurgica abbiamo citato i seguenti 3
esempi, in apparenza paradossali, di controllo e manipolazione.
- Controllo dei conti deposito titoli con “esproprio forzato”.
- Controllo dei flussi di banconote con tecnologia RFID.
- Controllo di comportamenti con esposizione a campi elettromagnetici (o altri).
Per quanto raccontati in forma paradossale, sono tutti e tre
tecnicamente plausibili.
Con particolare riferimento a quello in apparenza più
sofisticato, il terzo, possiamo dire che buona parte della vita di Clò risponde
bene al caso di esempio pratico.
Il tema era stato trattato anche in The Bourne Legacy,
dove agenti geneticamente modificati, non solo venivano tenuti in riga e in
forma grazie a due pillole, una per il corpo e una per la mente, ma ad uno di
essi veniva “data la carica” a distanza, facendolo “impazzire” in preda ad un
istinto assino irrefrenabile.
Sicuramente si possono trovare altri spunti a questi link.
Un altro tema che vogliamo portare ad esempio, è tratto da Intersect
Intersect è il supercomputer
governativo immaginario
presente nella serie televisiva Chuck, il quale racchiude al suo
interno tutti i segreti dei servizi segreti statunitensi; ovvero CIA e NSA.[1]
L'Intersect è l'oggetto attorno al quale si
sviluppano le vicende narrate, difatti la serie ha inizio quando il
protagonista, Chuck Bartowski, "installa" tale
elaboratore nel suo cervello sotto forma di miliardi di immagini criptate
imprimibili nel subconscio.[1]
Quella delle immagini criptate, che sembrano una cosa ma ne
nascondono un’altra (precursori erano le pubblicità subliminali), può sembrare
davvero fantascienza, eppure anche in questo caso abbiamo la prova empirica che
è possibile.
La prova empirica è Clò.
Quando iniziò a capire che la gente lo riconosceva ma lui
non sapeva come, un giorno il “cugino custode persona informata sui fatti” gli
disse: “si, l’algoritmo genetico è una cosa, ma il fatto che ti riconoscono è
perché gli arrivi direttamente nel subconscio”.
La domanda ovvia da farsi dunque è : se è in grado di
arrivarvi Clò, cosa altro vi possono mandare ?
Ma in tutto questo discorso il vero nocciolo è sempre lo
stesso.
Cosa fanno, come lo fanno, e perché lo fanno.
Non necessariamente quello che ci sembra incredibile deve
suscitarci paura.
Tutto può essere interpretato a seconda di come viene usato.
Rimane dunque fondamentale sapere che lo fanno, perché solo
sapendolo possiamo controllarli.
Chi controlla i controllori
E’ la famosa e antica questione filosofica del :“Chi controlla i controllori?”
La famosa frase si deve all’autore latino Wikipedia
Giovenale che nella sua satira più lunga¹, indignato per l’estrema
rilassatezza dei costumi che avevano annegato la sobrietà e la sanità dei
Romani in un mare di lussi e di sprechi inverosimili, mette veemente al bando i
vizi e l’immoralità delle donne, tutte corrotte, nobili o di umili origini che
siano; donne i cui comportamenti non possono divenire virtuosi tanto più quando
coloro che dovrebbero orientarli sono essi stessi corruttibili.
Il dubbio serpeggia anche nella Wikipedia
Platone "Repubblica" .
Socrate, personaggio principale dell’opera, illustra il
modello ideale di società. Quattro classi sociali ben definite, contadini,
artigiani, guerrieri e governanti, che danno sostanza all’utopica città, il cui
fine ultimo è il benessere della collettività, e non di una singola classe.
Nella perfezione del disegno platonico si insinua la solita domanda “chi
proteggerà i governati dai governanti?”
per concludere
La cultura e il sistema di valori della civiltà dell’intelletto
Siamo partiti da questo argomento, ne 2015
04 03 - Il mondo di Clò
Abbiamo citato una serie di valori a cui fare riferimento.
- La missione di Stati e Metastati e il metodo relativo
- La redistribuzione della ricchezza e il soft landing globale
- La delocalizzazione degli investimenti
- Cambiare il modello di spesa – Il worldfunding
- Globalizzazione e connessioni
- La cooptazione degli investimenti e la scuola del profitto
- La moneta fa girare l’economia, non e’ economia
- La finanziarizzazione si sgonfierà da sola
- Cambiare il modo in cui si calcola il profitto
- Il progresso è revoluzione della conoscenza
- La revoluzione demografica
- La Revoluzione Perenne
Abbiamo anche detto che bisogna riferirsi a chi è più
competente di noi, per inquadrare meglio la questione “cultura”.
Per farlo, in ogni caso, si deve padroneggiare bene il tema
della complessità.
Per quanto possiamo riconoscerci in dimensioni metafisiche,
astrali, orbitali o altre, questione fondamentale rimane quella di creare una
società giusta e sostenibile.
L’unica compatibile con una definizione di “Civiltà
dell’intelletto”.
Diluvi di geni o di memi non possono sostituirsi al corretto
esercizio del libero arbitrio, anche nel di loro utilizzo.
E solo una profonda consapevolezza di tutto quello che
accade può orientarne l’autoaggregazione in maniera utile per tutti.
Senza andare ancor più per le lunghe, in questo senso va
intesa la retroazione verso 2015
04 03 - Il mondo di Clò - L’uomo economico, l’economia pratica, e la
Revoluzione Perenne.
Quando il sistema di valori diventerà “unità di conto” in
senso lato, allora i memi con i geni completeranno lo schema e diventeranno
semi.
Dunque, l’economia intesa come strumento di efficiente
allocazione di tutte le risorse è centrale ma deve poggiare su una cultura di
civiltà.
L’ economia è il processo, la società è la struttura, la
civiltà è lo schema.
Questo scritto, questa tetralogia nelle sue 4 sezioni, non è
una luce.
Questo scritto è un’ancora galleggiante, aggrappata con
unghie sematiche alle sfere rotanti del pensiero.
E’ un centro di gravità per la mente, che resti ancorata geosemanticanticamente.
Uno smistatore di pacchetti, una rotonda semantica, un
instradatore di logica.
E’ un crogiuolo di connessioni, che restino come semi di
sinaptazioni.
Per questo è una bomba connettiva e, come dice il titolo,
una “lecca semantica”.
Questo non è un paese per vecchi (Film fratelli Coen)
Infine, pensando a mia figlia piccola, questo è un retaggio,
una eredità, un testamento.
Questa non è materia per vecchi.
Questa è roba per generazioni veloci.
Cresciute a tweet e videogames.
Se abbiamo seminato bene, sarà da questi che si formerà
l’autoemergenza.
Come sinapsi veloci, si rimbalzeranno nell’iperspazio.
E non vi preoccupate.
Il significato profondo delle cose, delle parole, lo troveranno
nel cielo.
Nel cloud, al quale si attaccheranno con un tweet che apra
le porte della percezione alla conoscenza collettiva ivi ancorata.
A questo servono Les Claufrenies.
A mappare modelli di percorsi neurali, schemi di espansione
cognitiva per posteri.
Siamo già nati obsoleti, quanto un microfilm.
Eppure, o epperciò, indirizziamo i sentieri di retrival
dalla memoria.
Non siamo nemmeno i retriver.
Siamo solo le loro zampe palmate e ungulate aggrappate alle
coste del grande mare della conoscenza.
Restiamo stesi nella melma come un mantello su cui possa
avanzare la principessa di ogni favola.
Traghettatori, si diceva una volta.
Carontiche creature.
Ma in reltà, soltanto zerbini fatti di memorie per le
generazioni future.
Per una generazione futura, almeno.
Il corso e ricorso seguente non ci è dato immaginare.
Ma l’eterno ritorno è garantito.
Sta nell’ (uni)verso, ivi inciso dalle cosmiche rivoluzioni
dell’eterna danza di Gea e Kronos.
Nessun commento:
Posta un commento