La codifica delle informazioni è la conversione dei dati in una forma che può essere immagazzinata, trasmessa, o elaborata da un computer. Le informazioni sono codificate in varie forme, come testo, immagini, audio e video e vengono utilizzati sistemi specifici per rappresentare il contenuto delle informazioni.
Il termine “codifica” è più comunemente associato al processo di conversione dei dati analogici in dati digitali, un esempio comune di questo processo è la codifica delle immagini, dove le fotografie scattate con una macchina fotografica vengono convertite da un segnale analogico a un segnale digitale usando un codificatore di immagini.
La codifica può servire anche per ragioni di sicurezza, al fine di evitare che si accedano a informazioni sensibili. Per esempio, i numeri di identificazione personale possono essere codificati all’interno di un codice a barre o di una banda magnetica su una carta di credito per impedire l’accesso non autorizzato alle informazioni finanziarie.
Cosa imparerai in questa lezione
- Codifica delle informazioni
- Codifica dei testi
- Codifica delle immagini
- Codifica video
- Codifica dei suoni
Codifica delle informazioni
L’informatica della codifica delle informazioni è lo studio della conversione dei dati dal loro stato naturale in una forma che può essere memorizzata, trasmessa e/o elaborata. Questo articolo descrive i diversi metodi di codifica delle informazioni e presenta insieme ai vantaggi e agli svantaggi di ciascuno.
Lo stato naturale dei dati è spesso in un formato difficile da memorizzare, trasmettere o elaborare, per renderlo più facile da gestire per un computer, potrebbe essere necessario codificarlo in qualche modo.
Cosa si intende per codifica delle informazioni?
Le informazioni possono essere memorizzate e comunicate in vari modi, ma sono solo due i tipi comunemente usati: analogico e digitale. Analogico è quando l’informazione è memorizzata come un segnale continuo, come le onde sonore o le fluttuazioni di tensione. Digitale è dove i valori discreti sono usati per rappresentare le informazioni, per esempio, il codice binario (0 e 1).
Codificare significa convertire i dati digitali in un formato che può essere memorizzato, trasmesso o elaborato.
La teoria dell’informazione è un ramo della matematica che studia la quantificazione e la compressione dell’informazione. La sua applicazione nell’informatica può essere fatta risalire all’epoca delle schede perforate, quando Claude Shannon, un ingegnere e matematico americano, pubblicò un documento chiamato “A Mathematical Theory of Communication“. In questo documento innovativo, Shannon descrive una serie di misure o regole per una trasmissione efficiente dei dati.
Queste regole furono successivamente modificate e divennero note come “teorema di Shannon”. Lo scopo della codifica dei dati è quello di ridurre la quantità di dati utilizzati nella comunicazione o nella memorizzazione per raggiungere un obiettivo specifico.
Per esempio, un file di immagine può essere ridotto nelle dimensioni eliminando i pixel ridondanti e riducendo o aumentando il numero di colori utilizzati nell’immagine. Il processo di compressione minimizza la ridondanza e massimizza l’impacchettamento delle informazioni in una forma efficiente per la memorizzazione o il trasferimento.
Codifica dei testi
Una codifica di caratteri è un modo di rappresentare il testo in forma digitale. Specifica come i dati binari sono convertiti in codici che possono essere letti come caratteri dagli esseri umani, e interpretati dai computer.
Caratteri e codifiche
Un carattere può essere definito come un simbolo che rappresenta un’idea o un suono, per esempio, la lettera “A” è un simbolo che rappresenta la lettera, il codice per quella lettera è 65 in ASCII e 97 in UTF-8, e questo numero è generalmente il modo in cui i computer lo memorizzano.
La codifica del testo è lo schema con cui il testo viene convertito (codificato) in un formato binario per la memorizzazione o la trasmissione. Lo scopo della codifica è quello di permettere ai dati di essere rappresentati o memorizzati in un computer in uno qualsiasi dei vari modi e successivamente decodificati (cioè, riconvertiti) nella forma originale.
Il termine è più comunemente applicato alla conversione da un testo in lingua naturale (umana) in una forma leggibile dal computer, un processo chiamato codifica del testo del computer, ma può anche essere applicato alla conversione analoga tra diversi linguaggi informatici e sistemi di scrittura.
Codifica ASCII
ASCII è l’acronimo di American Standard Code for Information Interchange, un insieme di simboli usati per rappresentare lettere, numeri e segni di punteggiatura. La codifica ASCII è un modo per rappresentare tutti questi caratteri in una forma che i computer possono capire.
La tabella ASCII rappresenta ogni carattere assegnandogli un numero, per esempio, il carattere spazio è rappresentato dal codice ASCII 32, mentre alla lettera Z maiuscola è assegnato il 90. Quando invii dati su Internet o li memorizzi sul tuo computer, stai usando la codifica ASCII per risparmiare tempo e spazio di memorizzazione.
Codifica delle immagini
Il termine codifica delle immagini si riferisce alla tecnica con cui le informazioni all’interno di un’immagine vengono registrate e memorizzate digitalmente. Il processo di codifica di un’immagine implica prendere l’immagine originale e convertirla in un formato che può essere utilizzato da un particolare dispositivo. Questo processo rende possibile visualizzare le immagini digitali, convertirle in altri formati e salvarle per un uso futuro.
Formati per le immagini
I formati immagine definiscono come un’immagine è codificata in un file. Ci sono due tipi principali di formati immagine: lossy e lossless.
Lossy, quando alcuni dati possono essere persi durante il processo di codifica. Alcuni esempi di formati lossy sono:
- JPEG
- PNG
- GIF
- TIFF
Questi file sono compressi per ridurre le dimensioni dei file. Mentre questo li rende più piccoli e più veloci da scaricare, c’è una inevitabile perdita di qualità dell’immagine con ogni ciclo di compressione.
Questa perdita non può essere invertita, i formati lossy sono più adatti per immagini che hanno bassi livelli di dettaglio, sono adatti all’uso sul web e alla creazione di miniature.
Lossless, dove i dati non vengono persi durante il processo di codifica. Esempi di formati lossless sono BMP, SVG, TGA e ICO. I formati senza perdita sono più adatti per le immagini che contengono grandi livelli di dettaglio, come ad esempio i loghi.
Qual è il miglior formato per le immagini sul web?
Quale formato di immagine è migliore per il web? I formati di immagine come JPG, PNG, GIF e BMP sono quelli più usati per memorizzare immagini digitali sul web.
- Un file GIF può avere fino a 256 colori per immagine e può offrire animazioni fino a un massimo di 256 fotogrammi.
- Un file JPG ha più di 16 milioni di colori diversi e supporta la trasparenza che permette alle immagini di essere sovrapposte ad altri oggetti.
- I file PNG possono anche avere milioni di colori con sfondi trasparenti, ma non hanno capacità di animazione.
- Il formato WebP è stato sviluppato da Google nel 2010 ed è stato introdotto nel browser Chrome tre anni dopo. Anche se non è ancora molto usato, sta guadagnando popolarità grazie al suoi alto grado di compressione senza compromettere la qualità.
Risoluzione delle immagini
La risoluzione delle immagini è un elemento importantissimo della codifica delle immagini. Il termine risoluzione si riferisce al numero di pixel contenuti in un’immagine. Più grande è il numero di pixel per pollice (PPI), migliore sarà l’aspetto dell’immagine quando viene visualizzata su uno schermo o stampata su carta.
Immagini raster ed immagini vettoriali
Un’immagine è una rappresentazione visiva di un oggetto, una scena, una persona o un concetto. Il termine “immagine” nell’era digitale è usata prevalentemente per riferirsi a immagini digitali, che sono di due tipi: raster e vettoriali.
Le immagini raster, o scalari, come le fotografie e le immagini (scannerizzate o create con un computer), sono costituite da una serie di pixel su una griglia rettangolare e hanno una dimensione relativamente piccola per la quantità di dettagli che contengono.
Le immagini vettoriali sono composte da espressioni matematiche e curve che consistono in primitive geometriche e hanno una risoluzione infinita senza costi aggiuntivi per le dimensioni del file.
Mentre le immagini basate su raster sono popolari per l’uso quotidiano come il fotoritocco, il design, i videogiochi e gli effetti speciali dei film, la grafica vettoriale è dominante nell’industria pubblicitaria grazie alla loro scalabilità e capacità di essere ridimensionata senza perdere qualità.
La codifica dell’immagine è anche il processo di trasformazione dei dati dell’immagine in un altro formato, per esempio la conversione dei dati raster in dati vettoriali. Questo processo può comportare il ridimensionamento, la conversione del colore, la compressione o altri cambiamenti di metadati.
Codifica video
Un file video digitale è una sequenza di immagini, contenente del suono (che può essere sincronizzato o meno con le immagini). La codifica video è il processo di conversione di file video in formati che possono essere facilmente e accuratamente memorizzati, trasmessi e visualizzati.
Ci sono tre principali formati di codifica video:
- H.264
- AVCHD
- MPEG-4
La maggior parte dei video che troverete sul web, compresi quelli caricati su YouTube, saranno codificati in uno di questi formati.
H.264 è un formato di compressione ampiamente utilizzato sia per l’alta definizione (HD) che per la definizione standard (SD). È supportato dalla maggior parte dei lettori e dispositivi video, ed è ampiamente utilizzato per codificare i contenuti video sul web.
AVCHD è un formato molto popolare per le videocamere HD. Utilizza il codec MPEG-4 e può essere riprodotto in HD su molti dispositivi. A differenza di H.264, che comprime un video in un file di dimensioni più piccole per renderlo più facile da trasmettere online, i file AVCHD sono spesso memorizzati a una risoluzione superiore a quella registrata originariamente. Questo significa che devono essere decodificati in una risoluzione inferiore prima di poter essere visti, questo processo è noto come transcodifica.
MPEG-4 è un formato comunemente usato per i contenuti video a definizione standard. E’ stato il codec predefinito per i DVD ora sostituito con H.264. Non è supportato dai dispositivi Apple senza un plugin aggiuntivo per QuickTime.
Codifica dei suoni
I formati di codifica del suono sono il modo in cui i segnali audio digitali sono codificati in dati binari. I file audio possono essere memorizzati in una varietà di formati. Il più comune è il WAV un tipo di file audio non compresso, che non scarta alcuna informazione e quindi mantiene la massima qualità audio; sono disponibili anche altri formati come FLAC, WMA e AAC.
Altri formati di file audio:
Il formato MP3 è un formato di file audio usato per codificare digitalmente il suono. È stato creato dal Moving Picture Experts Group (MPEG) come parte del suo standard MPEG-1 e successivamente esteso nello standard MPEG-2. Permette ai dati audio di essere compressi, risultando in una dimensione di file più piccola, senza perdere sostanzialmente alcun contenuto della sorgente audio originale.
Il formato AMR è usato per il parlato e altre fonti audio fino a 12,2 kbit/s, che è approssimativamente equivalente al parlato di qualità telefonica.
Il processo di codifica dei campioni di un segnale analogico in un formato digitale e poi di nuovo indietro è chiamato modulazione a codice d’impulso (PCM), e ci sono diversi metodi per farlo.
Nelle altre lezioni
Di seguito i link alle prossime lezioni:
- Concetti di base della tecnologia dell’informazione
- Hardware e Software. Input, output e fasi di lavoro di un PC
- Principali componenti di un PC. Tipologia di computer e la loro evoluzione
- Unità di misura. Conversioni, multipli, sottomultipli ed esercizi svolti
- Sistemi di numerazione, binario, decimale ed esadecimale. Esercizi di conversione
- Codifica delle informazioni, testi, immagini, video, suoni
- Il software: sistemi operativi e software operativi
- Reti informatiche, tipologia, topologia e componenti principali
Segui Digital Teacher anche sui canali social