L'uomo è abituato a parlare, leggere e scrivere in
sequenza poiché i suoi organi sensoriali lavorano spontaneamente in questo modo. L'udito
e la vista captano i messaggi uno dietro l'altro e dunque la
comunicazione vocale prima e la scrittura poi sono state strutturate
senquenzialmente. Tuttavia l'uomo non pensa sequenzialmente, al contrario la
mente opera secondo associazioni di idee e di concetti che
Esempi di ipertesti si trovano in tutta Internet, poiché solitamente le pagine web collegano pagine dello stesso sito o collocate lontano anche all'altro capo del mondo. In una pagina web troviamo infatti bottoni, tendine, finestre ed anche semplici parole che, una volta che ci clicchi sopra, immediatamente ti danno il testo collegato. Si può dire che tutto il world wide web è un unico ipertesto globale (vedi anche risposta 12)
Gli ipertesti non sono esclusivi dell'informatica. Talora i libri tradizionali contengono note, collegamenti, citazioni e referenze che creano una forma rudimentale di ipertesto su carta. Solo con l'elettronica l'ipertesto diventa uno strumento potentissimo e veloce, raccorda i documenti più vari: carte geografiche, mappe, diagrammi, nuovi ed antichi reperti, ecc. Quando l'ipertesto collega forme mediatiche diverse: documenti scritti, brani musicali, video, filmati ecc. si parla di ipertesto multimediale (hypermedia).
I documenti collegati si dicono tipicizzati
se sono state appositamente organizzati per lo scopo.
In caso contrario sono informazioni che esistono per proprio conto e vengono
richiamati da altri così come sono. L'ipertesto è statico
quando i collegamenti vengono fissati una volta per tutte. E' invece
dinamico quando l'assetto viene
modificato come nel caso di un insegnante che prepara il materiale e
continuamente lo aggiorna. Ad esempio la nostra rubrica 'Capire l'Informatica' è un
ipertesto tipicizzato e dinamico.
L'unico limite dell'ipertesto è che esso di regola non è
analitico, cioè lavora
mediante parole-chiave o puntatori (chiamati link) i quali non
raggiungono il dato particolare che interessa ma di regola connettono l'intera pagina
che contiene il particolare. Per cui il lettore il dato particolare se lo
deve cercare all'interno della pagina.
anno 2009 |
171.Si parla quotidianamente di ipertesti, ma ho le idee confuse. |
172.Il professore ci ha consigliato di programmare mediante una maschera ma non ho capito molto bene. |
Nella programmazione si chiama maschera (in inglese mask) uno strumento che serve per controllare la rappresentazione di un insieme di dati. Supponiamo che un programma deve stampare due tabulati i quali servono uffici diversi. Ogni ufficio ha esigenze proprie e vuole che i dati vengano disposti in modo conveniente per il proprio lavoro. Allora il programma software calcola i dati AAA, BBBB, CCC e DDD, e poi usa due maschere per preparare il primo ed il secondo formato pagina.
Nella programmazione imperativa la maschera di solito è una dichiarativa (vedi risposta 151) che si codifica con metodi diversi a seconda del linguaggio e di altre esigenze tecniche. In particolare la maschera occupa un suo specifico spazio di memoria quando ad esempio è una PIC X in Cobol. Non occupa spazio se la maschera è una Dummy Section in Assembler ad esempio. La maschera si usa anche al di fuori della programmazione classica. Ad esempio si vuole rappresentare una serie di dati statistici e si crea la seguente maschera che verrà riempita in un secondo tempo.
La maschera assicura che i dati andranno visualizzati in un certo modo e se uno vuole cambiare tale veste grafica, basta che cambia la maschera ed il gioco è fatto.
anno 2009 |
Claude Shannon nel 1948 definiva una rigorosa teoria al fine di calcolare le condizioni ottimali del canale e dei dati ivi trasmessi. La misura base è l'entropia H
Dove pi è la probabilità del generico dato elementare i trasmesso. Come esempio prendiamo un testo composto dalle 23 lettere dell'alfabeto latino le quali sono i dati elementari del testo e sono più o meno frequenti cioè si presentano con probabilità pa, pb, pc, ... pz. L'entropia indica quanti bit sono necessari per codificare le lettere dell'alfabeto trasmesse nel canale con probabilità pa, pb, pc, ... pz. L'entropia ha quattro principali caratteristiche. 1) Tra i circa venti teoremi dimostrati dall'autore ricordiamo il primo teorema di Shannon o teorema sulla codifica di una sorgente il quale asserisce che una sorgente di segnali non può essere rappresentata con un numero di bit inferiore alla sua entropia. In pratica H fornisce il numero minimo di bit necessari per tradurre un generico messaggio in binario, come è stato spiegato con le lettere dell'alfabeto. 2) Shannon assume che H sia la quantità di informazione trasmessa. Infatti l'entropia aumenta quando aumenta il numero n dei segnali elementari. 3) L'entropia cresce man mano che i dati elementari diventano equiprobabili e diminuisce quando le loro probabilità sono sbilanciate. Se i dati hanno tutti la stessa probabilità vuol dire che il ricevente ha la massima insicurezza su ciò che arriva. Invece quando un dato è altamente probabile e gli altri sono improbabili, il ricevente ha una precisa propensione su quanto verrà trasmesso. Questo vuol dire che H è collegata all'incertezza. 4) L'entropia termodinamica aumenta con il mischiarsi delle molecole di un gas ed H dipende dalla distribuzione più o meno caotica dei dati elementari. Dunque tra le due entropie c'è una certa correlazione ovvero si può dire che un gas costituisce una fonte di informazione di cui H dà il valore.
La teoria di Shannon viene richiamata in molti lavori teorici ed è fondamentale in alcuni settori pratici. In particolare nell'ICT (information and communication technology) serve per dimensionare i canali trasmissivi, per la compressione dei dati, per la crittografia, per il pattern matching e qualche altra applicazione.
Intorno al
lavoro di Shannon con il passare degli anni è cresciuta una enfasi che
vorrebbe porla come universale interpretazione dell'informazione e che
invece stride con i suoi limiti. Un critica serrata è stata condotta da molti esperti i quali non negano l'utilità di H sul piano tecnico ma ne contestano il valore come unica interpretazione dell'informazione. La pretesa universalità non regge alle innumerevoli situazioni che l'entropia non spiega. Anche in ambito tecnico la teoria di Shannon, che risale a più di 50 anni fa, dimostra evidenti limiti alla luce delle più recenti applicazioni vedi ad esempio il web semantico, l'Intelligenza Artificiale ed altri lavori che si basano sulla semantica e che essa non tratta (vedi anche risposta 72).
anno 2009 |
173.Mi può riassumere l'entropia e l'informazione in breve? |