Glossario informatico
0-9 - A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z

Condividi:        

Glossario informatico: Word

Glossario informatico: una raccolta di tutti i termini informatici riguardanti Internet, l'informatica e i PC.

Letteralmente: Parola (dall'Inglese)


1) Quantità di memoria usata da un computer per rappresentare valori numerici.

La lunghezza minima della "parola" dipende dal numero di bit necessario per immagazzinare un numero in virgola mobile.
I primi elaboratori, agli albori dell'Era Informatica, usavano word di lunghezza pari a 36 bit essi erano cioè in grado di scrivere e leggere 36 bit alla volta. Il numero di 36 bit (e non 32, come ci si potrebbe aspettare) dipendeva dal fatto che con 36 bit è possibile gestire calcoli in virgola mobile con precisione di 10 cifre decimali, più che sufficienti per le necessità di allora.


Un Byte, costituito di 8 bit, può rappresentare solo 256 stati (valori numerici); qualora fosse necessario descriverne un numero superiore sarà quindi sufficiente utilizzare una "parola" di 2 o più byte consecutivi.
Alcuni esempi:

A) il numero decimale intero '5299' diventa:

- Con 1 solo byte: 10110011bin => B3hex => 179dec
In questo caso si ha il cosiddetto "Overflow": 8 bit non sono sufficienti!

- Con 2 byte (16 bit): 00010100-10110011bin => 14B3hex => 5299dec (rappresentazione corretta)


B) il numero decimale intero '123456789' diventa:

- Con 1 byte: 00010101bin => 15hex => 21dec

- Con 2 byte: 11001101-00010101bin => CD-15hex => 52501dec

- Con 4 byte (32 bit): 00000111-01011011-11001101-00010101 => 07-5B-CD-15hex => 123456789dec (rappresentazione corretta)

Il valore decimale del numero rappresentato dalla word si può calcolare come segue:

[valore_byte1] + 2^8 * [valore_byte2] + 2^16 * [valore_byte3] + 2^24 *[valore_byte4] ovvero:
[valore_byte1] + 256 * [valore_byte2] + 65536 * [valore_byte3] + 16777216 *[valore_byte4]


Nella decodifica delle word è importante conoscere l'ordine in cui i byte sono stati memorizzati, ovvero bisogna sapere se il "bit 1" sia quello più a destra o più a sinistra.

- Nella rappresentazione cosiidetta "Big-Endian", il 'bit meno significativo' è l'ultimo della sequenza;
- In rappresentazione "Little-Endian", invece, il bit 'più significativo' è l'ultimo della sequenza

Per "bit più significativo" s'intende quello che definisce con più precisione la grandezza rappresentata.
Per fare un esempio pratico, consideriamo la data odierna (6 febbraio 2012): la parte più significativa del dato è il giorno, mentre quella meno significativa è l'anno; Il formato europeo prevede di scrivere la data come giorno-mese-anno (06-02-2012): si tratta quindi di una notazione Big-Endian.

Chiarite le idee su questo concetto, torniamo ad occuparci di numeri:

- Se rappresentato in forma Little-Endian, il numero '123456789' sarà quello visto nell'esempio precedente: 00000111-01011011-11001101-00010101

- Se rappresentato in forma Big-Endian, sarà invece: 00010101-11001101-01011011-00000111 (i 4 byte che lo compongono sono scritti in ordine inverso, mentre l'ordine dei bit all'interno dei byte rimane il medesimo).

Decodificando un numero Big-Endian come se fosse Little-Endian non si può ottenere nulla di buono!
Il problema è particolarmente critico quando i dati vengono generati da un computer che li memorizza nella prima forma e devono, in seguito, essere elaborati da un sistema che opera con l'altra.




2) Programma di videoscrittura della Microsoft. Fa parte del pacchetto Office.
E', ad oggi, uno dei più diffusi software per la scrittura di documenti.


Cerca anche su: Google, Wikipedia.
Questa definizione non è completa?
  • Migliorala tu stesso e contribuisci alla crescita del glossario.
  • Scrivi all'Oracolo di pc-facile.com e lui ti risponderà via e-mail entro 48 ore lavorative.
  • Invia questa definizione a un amico.