Codificazione delle informazioni testuali. Codifica delle informazioni

10.01.2022

Abbiamo conosciuto i sistemi numerici: modi di codificare i numeri. I numeri forniscono informazioni sul numero di articoli. Queste informazioni devono essere codificate e presentate in una sorta di sistema numerico. Quale di metodi conosciuti la scelta dipende dal problema da risolvere.
Fino a poco tempo fa, i computer elaboravano principalmente informazioni numeriche e testuali. Ma la maggior parte delle informazioni su mondo esterno una persona riceve sotto forma di immagini e suoni. In questo caso, l'immagine risulta essere più importante. Ricorda il proverbio: "È meglio vedere una volta che ascoltare cento volte". Pertanto, oggi i computer iniziano a lavorare sempre più attivamente con immagini e suoni. Prenderemo sicuramente in considerazione i modi per codificare tali informazioni.

Codifica binaria di informazioni numeriche e testuali.

Qualsiasi informazione viene codificata in un computer utilizzando sequenze di due cifre: 0 e 1. Il computer memorizza ed elabora le informazioni sotto forma di una combinazione di segnali elettrici: la tensione 0,4 V-0,6 V corrisponde allo zero logico e la tensione 2,4 V-2,7 V corrisponde a quello logico. Vengono chiamate sequenze di 0 e 1 codici binari , e i numeri 0 e 1 lo sono bit (cifre binarie). Questa codifica delle informazioni su un computer viene chiamata codifica binaria . Pertanto, la codifica binaria è codificare con il numero minimo possibile di simboli elementari, codificando con i mezzi più semplici. Ecco perché è notevole dal punto di vista teorico.
Gli ingegneri sono attratti dalla codifica binaria delle informazioni perché è facile da implementare tecnicamente. Circuiti elettronici per elaborare i codici binari è necessario trovarsi in uno solo dei due stati: c'è segnale/nessun segnale O alta tensione/bassa tensione .
Nel loro lavoro, i computer funzionano con numeri reali e interi, presentati sotto forma di due, quattro, otto e persino dieci byte. Per rappresentare il segno di un numero durante il conteggio, un addizionale cifra del segno , che di solito si trova prima delle cifre numeriche. Per i numeri positivi, il valore del bit di segno è 0 e per i numeri negativi - 1. Per scrivere la rappresentazione interna di un numero intero negativo (-N), è necessario:
1) ottenere il codice aggiuntivo del numero N sostituendo 0 con 1 e 1 con 0;
2) aggiungi 1 al numero risultante.

Poiché un byte non è sufficiente per rappresentare questo numero, viene rappresentato come 2 byte o 16 bit, il suo codice complementare è 1111101111000101, quindi -1082=1111101111000110.
Se un PC potesse gestire solo singoli byte, sarebbe di scarsa utilità. In realtà un PC funziona con numeri scritti su due, quattro, otto e anche dieci byte.
Dalla fine degli anni '60, i computer sono stati sempre più utilizzati per elaborare informazioni testuali. Per rappresentare le informazioni di testo vengono solitamente utilizzati 256 caratteri diversi, ad esempio lettere maiuscole e minuscole dell'alfabeto latino, numeri, segni di punteggiatura, ecc. Nella maggior parte dei computer moderni, ogni carattere corrisponde a una sequenza di otto zeri e uno, chiamata byte .
Un byte è una combinazione di otto bit di zero e uno.
Quando si codificano le informazioni in questi computer elettronici, vengono utilizzate 256 diverse sequenze di 8 zeri e uno, che consentono di codificare 256 caratteri. Ad esempio, la grande lettera russa “M” ha il codice 11101101, la lettera “I” ha il codice 11101001, la lettera “P” ha il codice 11110010. Pertanto, la parola “MONDO” è codificata con una sequenza di 24 bit o 3 byte: 111011011110100111110010.
Il numero di bit in un messaggio è chiamato volume delle informazioni del messaggio. Questo è interessante!

Inizialmente, nei computer veniva utilizzato solo l'alfabeto latino. Ha 26 lettere. Quindi, cinque impulsi (bit) sarebbero sufficienti per designarli ciascuno. Ma il testo contiene segni di punteggiatura, numeri decimali, ecc. Pertanto, nei primi computer in lingua inglese, un byte - una sillaba macchina - includeva sei bit. Poi sette: non solo per distinguere le lettere grandi da quelle piccole, ma anche per aumentare il numero di codici di controllo per stampanti, luci di segnalazione e altre apparecchiature. Nel 1964 apparve il potente IBM-360, in cui il byte divenne finalmente uguale a otto bit. L'ultimo ottavo bit era necessario per i caratteri pseudografici.
L'assegnazione di un particolare codice binario a un simbolo è una questione di convenzione, che viene registrata nella tabella dei codici. Purtroppo ce ne sono cinque codifiche diverse Lettere russe, quindi i testi creati in una codifica non si rifletteranno correttamente in un'altra.
Cronologicamente, uno dei primi standard per la codifica delle lettere russe sui computer è stato KOI8 (“Codice di scambio di informazioni, 8 bit”). La codifica più comune è la codifica cirillica standard Microsoft Windows, abbreviato CP1251 (“CP” sta per “Code Page” o “code page”). Apple ha sviluppato la propria codifica delle lettere russe (Mac) per i computer Macintosh. L'Organizzazione internazionale per la standardizzazione (ISO) ha approvato la codifica ISO 8859-5 come standard per la lingua russa. Finalmente è apparso un nuovo standard internazionale, Unicode, che alloca non un byte per ogni carattere, ma due, e quindi con il suo aiuto è possibile codificare non 256 caratteri, ma ben 65536.
Tutte queste codifiche continuano la tabella dei codici ASCII (American Standard Code for Information Interchange), che codifica 128 caratteri.

Tabella dei caratteri ASCII:

codice simbolo codice simbolo codice simbolo codice simbolo codice simbolo codice simbolo
32 Spazio 48 . 64 @ 80 P 96 " 112 P
33 ! 49 0 65 UN 81 Q 97 UN 113 Q
34 " 50 1 66 B 82 R 98 B 114 R
35 # 51 2 67 C 83 S 99 C 115 S
36 $ 52 3 68 D 84 T 100 D 116 T
37 % 53 4 69 E 85 U 101 e 117 tu
38 & 54 5 70 F 86 V 102 F 118 v
39 " 55 6 71 G 87 W 103 G 119 w
40 ( 56 7 72 H 88 X 104 H 120 X
41 ) 57 8 73 IO 89 Y 105 io 121
42 * 58 9 74 J 90 Z 106 J 122 z
43 + 59 : 75 K 91 [ 107 K 123 {
44 , 60 ; 76 l 92 \ 108 l 124 |
45 - 61 < 77 M 93 ] 109 M 125 }
46 . 62 > 78 N 94 ^ 110 N 126 ~
47 / 63 ? 79 O 95 _ 111 o 127 DEL

La codifica binaria del testo avviene come segue: quando si preme un tasto, una certa sequenza di impulsi elettrici viene trasmessa al computer e ogni carattere corrisponde alla propria sequenza di impulsi elettrici (zero e uno nel linguaggio macchina). Il programma del driver della tastiera e dello schermo determina il carattere utilizzando la tabella dei codici e crea la sua immagine sullo schermo. Pertanto, testi e numeri vengono archiviati nella memoria del computer in codice binario e a livello di programmazione vengono convertiti in immagini sullo schermo.

Codifica binaria delle informazioni grafiche.

Dagli anni '80, la tecnologia di elaborazione delle informazioni grafiche su un computer si è sviluppata rapidamente. La computer grafica è ampiamente utilizzata nella simulazione al computer nella ricerca scientifica, nella simulazione al computer, nell'animazione al computer, nella grafica aziendale, nei giochi, ecc.
Le informazioni grafiche sullo schermo del display vengono presentate sotto forma di un'immagine formata da punti (pixel). Osserva attentamente la fotografia di un giornale e vedrai che anch'essa è composta da piccoli punti. Se questi sono solo punti bianchi e neri, ciascuno di essi può essere codificato con 1 bit. Ma se nella foto sono presenti sfumature, due bit ti consentono di codificare 4 sfumature di punti: 00 - bianco, 01 - grigio chiaro, 10 - grigio scuro, 11 - nero. Tre bit consentono di codificare 8 tonalità, ecc.
Il numero di bit richiesti per codificare una sfumatura di colore è chiamato profondità di colore.

Nei computer moderni risoluzione (numero di punti sullo schermo), così come il numero di colori dipende dall'adattatore video e può essere modificato tramite software.
Le immagini a colori possono avere diverse modalità: 16 colori, 256 colori, 65536 colori ( colore alto), 16777216 colori ( colore vero). Per punto per la modalità colore alto Sono necessari 16 bit o 2 byte.
La risoluzione dello schermo più comune è 800 x 600 pixel, ovvero 480000 punti. Calcoliamo la quantità di memoria video richiesta per la modalità colore elevato: 2 byte *480000=960000 byte.
Vengono utilizzate anche unità più grandi per misurare la quantità di informazioni:


Pertanto, 960000 byte equivalgono approssimativamente a 937,5 KB. Se una persona parla otto ore al giorno senza interruzioni, nel corso di 70 anni di vita parlerà di circa 10 gigabyte di informazioni (ovvero 5 milioni di pagine - una risma di carta alta 500 metri).
La velocità di trasferimento delle informazioni è il numero di bit trasmessi al secondo. La velocità di trasmissione di 1 bit al secondo si chiama 1 baud.

Una bitmap, che è un codice immagine binario, viene archiviata nella memoria video del computer, da dove viene letta dal processore (almeno 50 volte al secondo) e visualizzata sullo schermo.


Codifica binaria delle informazioni audio.

Dall'inizio degli anni '90, i personal computer sono in grado di lavorare con informazioni audio. Ogni computer con una scheda audio può salvare come file ( un file è una certa quantità di informazioni memorizzate su disco e ha un nome ) e riprodurre le informazioni audio. L'utilizzo di software speciali (editor di file audio) apre ampie possibilità per creare, modificare e ascoltare file audio. Vengono creati programmi di riconoscimento vocale e diventa possibile controllare il computer con la voce.
È la scheda audio (scheda) che converte il segnale analogico in un fonogramma discreto e viceversa, il suono “digitalizzato” in un segnale analogico (continuo) che va all'ingresso dell'altoparlante.


Quando si codifica binariamente un segnale audio analogico, il segnale continuo viene campionato, ad es. viene sostituito da una serie di singoli campioni: letture. La qualità della codifica binaria dipende da due parametri: il numero di livelli di segnale discreti e il numero di campioni al secondo. Il numero di campioni o frequenza di campionamento negli adattatori audio può essere diverso: 11 kHz, 22 kHz, 44,1 kHz, ecc. Se il numero di livelli è 65536, per un segnale audio sono progettati 16 bit (216). Un adattatore audio a 16 bit codifica e riproduce l'audio in modo più accurato rispetto a un adattatore audio a 8 bit.
Il numero di bit richiesti per codificare un livello audio è chiamato profondità audio.
Il volume di un file audio mono (in byte) è determinato dalla formula:


Con il suono stereofonico il volume del file audio raddoppia, con il suono quadrifonico quadruplica.
Man mano che i programmi diventano più complessi e le loro funzioni aumentano, così come l'emergere di applicazioni multimediali, aumenta il volume funzionale dei programmi e dei dati. Se a metà degli anni '80 il volume abituale di programmi e dati era di decine e solo a volte centinaia di kilobyte, a metà degli anni '90 cominciò a raggiungere decine di megabyte. La quantità di RAM aumenta di conseguenza.


3. Codifica delle informazioni grafiche4

4. Codifica delle informazioni audio8

5. Conclusione10

Riferimenti11

introduzione

Un computer moderno può elaborare informazioni numeriche, testuali, grafiche, audio e video. Tutti questi tipi di informazioni in un computer sono presentati in codice binario, ovvero viene utilizzato un alfabeto di potenza due (solo due caratteri 0 e 1). Ciò è dovuto al fatto che è conveniente rappresentare l'informazione sotto forma di una sequenza di impulsi elettrici: non c'è nessun impulso (0), c'è un impulso (1). Tale codifica è solitamente chiamata binaria e le sequenze logiche di zero e uno sono chiamate linguaggio macchina. Ogni cifra del codice binario della macchina trasporta una quantità di informazioni pari a un bit. Questa conclusione può essere fatta considerando i numeri dell’alfabeto della macchina come eventi ugualmente probabili. Quando si scrive una cifra binaria, è possibile scegliere solo uno dei due stati possibili, il che significa che trasporta una quantità di informazioni pari a 1 bit. Pertanto, due cifre portano 2 bit di informazione, quattro cifre portano 4 bit, ecc. Per determinare la quantità di informazioni in bit, è sufficiente determinare il numero di cifre nel codice macchina binario.

Codifica delle informazioni di testo

Attualmente, la maggior parte degli utenti utilizza un computer per elaborare le informazioni di testo, costituite da simboli: lettere, numeri, segni di punteggiatura, ecc.

Tradizionalmente, per codificare un carattere, viene utilizzata una quantità di informazioni pari a 1 byte, ovvero I = 1 byte = 8 bit. Utilizzando una formula che collega il numero di eventi possibili K e la quantità di informazioni I, puoi calcolare quanti simboli diversi possono essere codificati (assumendo che i simboli siano eventi possibili): K = 2I = 28 = 256, cioè per rappresentare informazioni testuali , è possibile utilizzare un alfabeto con una capacità di 256 caratteri.

L'essenza della codifica è che a ogni carattere viene assegnato un codice binario da 00000000 a 11111111 o un codice decimale corrispondente da 0 a 255.

Attualmente, per codificare le lettere russe vengono utilizzate cinque diverse tabelle di codici (KOI - 8, CP1251, CP866, Mac, ISO) e i testi codificati utilizzando una tabella non verranno visualizzati correttamente in un'altra codifica. Questo può essere rappresentato visivamente come un frammento di una tabella di codifica dei caratteri combinata. Simboli diversi sono assegnati allo stesso codice binario.

Codice binario

Codice decimale

Tuttavia, nella maggior parte dei casi, sulla ricodifica documenti di testo si prende cura anche dell'utente programmi speciali- convertitori integrati nelle applicazioni. Dal 1997 ultime versioni Microsoft Windows e Office supportano la nuova codifica Unicode, che assegna 2 byte per ciascun carattere e pertanto è possibile codificare non 256 caratteri, ma 65536 caratteri diversi.

Per determinare il codice numerico di un carattere è possibile utilizzare una tabella di codici oppure lavorare in un testo Editor di parole 6.0 / 95. Per fare ciò, selezionare "Inserisci" - "Simbolo" dal menu, dopodiché sullo schermo viene visualizzato il pannello di dialogo Simbolo. Nella finestra di dialogo viene visualizzata una tabella di caratteri per il carattere selezionato. I caratteri in questa tabella sono disposti riga per riga, in sequenza da sinistra a destra, iniziando con il simbolo dello spazio (angolo in alto a sinistra) e terminando con la lettera "I" (angolo in basso a destra).

Per determinare il codice numerico di un carattere nella codifica Windows (CP1251), è necessario utilizzare il mouse o i tasti cursore per selezionare il carattere desiderato, quindi fare clic sul pulsante Chiave. Successivamente, sullo schermo viene visualizzata la finestra di dialogo Impostazioni, che contiene nell'angolo in basso a sinistra il codice numerico decimale del carattere selezionato.

Codifica delle informazioni grafiche

Le informazioni grafiche possono essere presentate in due forme: analogiche o discrete. Un dipinto il cui colore cambia continuamente è un esempio di rappresentazione analogica e di immagine stampata utilizzando stampante a getto d'inchiostro e costituito da singoli punti di diversi colori: questa è una rappresentazione discreta. Suddividendo un'immagine grafica (campionamento), l'informazione grafica viene convertita dalla forma analogica alla forma discreta. In questo caso viene eseguita la codifica, assegnando un valore specifico a ciascun elemento sotto forma di codice. Quando si codifica un'immagine, questa viene discretizzata spazialmente. Può essere paragonato alla costruzione di un'immagine da grande quantità piccoli frammenti colorati (metodo del mosaico). L'intera immagine è divisa in punti separati, ad ogni elemento viene assegnato un codice colore.

In questo caso, la qualità della codifica dipenderà dai seguenti parametri: dimensione del punto e numero di colori utilizzati. Quanto più piccola è la dimensione del punto, il che significa che l'immagine è composta da un numero maggiore di punti, tanto maggiore è la qualità della codifica. Più colori vengono utilizzati (cioè un punto dell'immagine può assumere più stati possibili), più informazioni trasporta ciascun punto e, quindi, aumenta la qualità della codifica. La creazione e la memorizzazione di oggetti grafici è possibile in diversi tipi: sotto forma di immagine vettoriale, frattale o raster. Un argomento a parte è la grafica 3D (tridimensionale), che combina metodi vettoriali e raster per la formazione delle immagini. Studia metodi e tecniche per costruire modelli tridimensionali di oggetti nello spazio virtuale. Ciascun tipo utilizza il proprio metodo di codifica delle informazioni grafiche.

Immagine raster. Utilizzando una lente d'ingrandimento, puoi vedere che un'immagine grafica in bianco e nero, ad esempio da un giornale, è costituita da minuscoli punti che compongono un determinato motivo: un raster. In Francia nel XIX secolo nacque una nuova direzione nella pittura: il puntinismo. La sua tecnica consisteva nell'applicare un disegno sulla tela con un pennello sotto forma di punti multicolori. Questo metodo è stato a lungo utilizzato anche nella stampa per la codifica delle informazioni grafiche. La precisione del trasferimento dell'immagine dipende dal numero di punti e dalla loro dimensione. Dopo aver diviso il disegno in punti, partendo dall'angolo sinistro, muovendosi lungo le linee da sinistra a destra, puoi codificare il colore di ciascun punto. Nel seguito chiameremo pixel uno di questi punti (l'origine di questa parola è legata all'abbreviazione inglese “picture element”). Il volume di un'immagine raster è determinato moltiplicando il numero di pixel (per il volume di informazioni di un punto, che dipende dal numero di colori possibili. La qualità dell'immagine è determinata dalla risoluzione del monitor. Più è alta, più ovvero, maggiore è il numero di linee raster e di punti per linea, maggiore è la qualità dell'immagine. Nei PC moderni vengono utilizzate principalmente le seguenti risoluzioni dello schermo: 640 per 480, 800 per 600, 1024 per 768 e 1280 per 1024 pixel di ciascun punto e le sue coordinate lineari possono essere espressi utilizzando numeri interi, possiamo dire che questo metodo di codifica consente di utilizzare il codice binario per elaborare i dati grafici.

Se parliamo di illustrazioni in bianco e nero, se non utilizzi i mezzitoni, il pixel assumerà uno dei due stati: luminoso (bianco) e non luminoso (nero). E poiché l'informazione sul colore del pixel è chiamata codice pixel, per codificarla è sufficiente un bit di memoria: 0 - nero, 1 - bianco. Se le illustrazioni vengono considerate sotto forma di una combinazione di punti con 256 sfumature di grigio (e queste sono quelle attualmente generalmente accettate), allora è sufficiente un numero binario a otto bit per codificare la luminosità di qualsiasi punto. Il colore è estremamente importante nella grafica del computer. Agisce come un mezzo per migliorare l'impressione visiva e aumentare la ricchezza di informazioni dell'immagine. Come si forma il senso del colore nel cervello umano? Ciò si verifica come risultato dell'analisi del flusso luminoso che entra nella retina da oggetti riflettenti o emittenti.

Modelli di colore. Se parliamo di codifica a colori immagini grafiche, quindi è necessario considerare il principio di scomposizione di un colore arbitrario nei suoi componenti principali. Vengono utilizzati diversi sistemi di codifica: HSB, RGB e CMYK. Il primo modello di colore è semplice e intuitivo, ad es. conveniente per l'uomo, il secondo è più conveniente per un computer e ultimo modello CMYK - per tipografie. L'utilizzo di questi modelli di colore è dovuto al fatto che il flusso luminoso può essere formato da radiazioni che sono una combinazione di colori spettrali “puri”: rosso, verde, blu o loro derivati. Esistono una riproduzione del colore additiva (tipica per gli oggetti emittenti) e una riproduzione del colore sottrattiva (tipica per gli oggetti riflettenti). Un esempio di oggetto del primo tipo è il tubo a raggi catodici di un monitor, mentre un esempio del secondo tipo è una stampa.

1) Il modello HSB è caratterizzato da tre componenti: tonalità del colore (Hue), saturazione del colore (Saturation) e luminosità del colore (Brightness).

2) Il principio del metodo RGB è il seguente: è noto che qualsiasi colore può essere rappresentato come una combinazione di tre colori: rosso (Red, R), verde (Green, G), blu (Blue, B). Altri colori e le loro sfumature si ottengono grazie alla presenza o all'assenza di questi componenti.

3) Il principio del metodo CMYK. Questo modello di colore viene utilizzato durante la preparazione delle pubblicazioni per la stampa. A ciascuno dei colori primari è associato un colore aggiuntivo (che complementa quello principale al bianco). Un colore aggiuntivo si ottiene sommando una coppia di altri colori primari.

Esistono diverse modalità per presentare la grafica a colori: quadricromia (True Color); Colore elevato; indice.

Nella modalità a colori, vengono utilizzati 256 valori (otto bit binari) per codificare la luminosità di ciascun componente, ovvero 8 * 3 = 24 bit devono essere spesi per codificare il colore di un pixel (nel sistema RGB) . Ciò rende possibile identificare in modo univoco 16,5 milioni di colori. Questo è abbastanza vicino alla sensibilità dell'occhio umano. Quando si codifica utilizzando il sistema CMYK, per rappresentare la grafica a colori è necessario avere 8*4=32 bit binari. La modalità High Color utilizza la codifica a 16 bit numeri binari, ovvero il numero di bit binari diminuisce durante la codifica di ciascun punto. Ma ciò riduce significativamente la gamma di colori codificati. Con la codifica a colori dell'indice possono essere trasmesse solo 256 tonalità di colore. Ogni colore è codificato utilizzando otto bit di dati. Ma poiché 256 valori non restituiscono l'intera gamma di colori accessibili all'occhio umano, resta inteso che ai dati grafici è allegata una tavolozza (tabella di ricerca), senza la quale la riproduzione risulterà inadeguata: il mare potrebbe risultare essere rosse e le foglie potrebbero risultare blu. Il codice punto raster stesso in questo caso non indica il colore stesso, ma solo il suo numero (indice) nella tavolozza. Da qui il nome della modalità - indice.

La corrispondenza tra il numero di colori visualizzati (K) e il numero di bit per codificarli (a) può essere trovata dalla formula: K = 2 a.

Abbastanza per…

Disegni del tipo visto nei cartoni animati, ma non sufficienti per rappresentare la fauna selvatica

Immagini che sono in immagini in riviste e fotografie

224 = 16 777 216

Elaborazione e trasmissione di immagini di qualità non inferiore a quelle osservate in natura

Il codice binario dell'immagine visualizzata sullo schermo è memorizzato nella memoria video. La memoria video è un dispositivo di archiviazione elettronico volatile. La dimensione della memoria video dipende dalla risoluzione del display e dal numero di colori. Ma il suo volume minimo è determinato in modo che si adatti un fotogramma (una pagina) dell'immagine, ad es. come risultato del prodotto della risoluzione e della dimensione del codice pixel.

Vmin = M*N*a.

Codice binario della tavolozza a otto colori.

Componenti di colore

Rosso 1 0 0

Verde 0 1 0

Blu 0 0 1

Blu 0 1 1

Viola 1 0 1

Giallo 1 1 0

Bianco 1 1 1

Nero 0 0 0

La tavolozza di sedici colori consente di aumentare il numero di colori utilizzati. Qui utilizzeremo una codifica pixel a 4 bit: 3 bit di colori primari + 1 bit di intensità. Quest'ultimo controlla simultaneamente la luminosità di tre colori fondamentali (l'intensità di tre fasci di elettroni). Controllando separatamente l'intensità dei colori primari, il numero di colori prodotti aumenta. Quindi, per ottenere una tavolozza con una profondità di colore di 24 bit, per ogni colore vengono assegnati 8 bit, ovvero sono possibili 256 livelli di intensità (K = 28).

Un'immagine vettoriale è un oggetto grafico costituito da segmenti e archi elementari. L'elemento base dell'immagine è la linea. Come ogni oggetto, ha proprietà: forma (dritto, curvo), spessore, colore, stile (punteggiato, solido). Le linee chiuse hanno la proprietà di essere riempite (o con altri oggetti o con il colore selezionato). Tutti gli altri oggetti di grafica vettoriale sono costituiti da linee. Poiché la linea viene descritta matematicamente come un singolo oggetto, la quantità di dati per visualizzare l'oggetto utilizzando la grafica vettoriale è molto inferiore rispetto alla grafica raster. Le informazioni su un'immagine vettoriale sono codificate come alfanumeriche ordinarie ed elaborate da programmi speciali.

A Software creazione ed elaborazione di grafica vettoriale comprendono i seguenti software: CorelDraw, Adobe Illustrator, così come vettorizzatori (traccianti): pacchetti specializzati per convertire immagini raster in immagini vettoriali.

La grafica frattale si basa su calcoli matematici, proprio come la grafica vettoriale. Ma a differenza del vettore, il suo elemento base è la formula matematica stessa. Ciò porta al fatto che nessun oggetto viene archiviato nella memoria del computer e l'immagine viene costruita solo utilizzando equazioni. Utilizzando questo metodo, puoi costruire le strutture regolari più semplici, nonché illustrazioni complesse che imitano i paesaggi.

Codifica delle informazioni audio

I computer sono ormai ampiamente utilizzati in vari campi. L'elaborazione delle informazioni sonore e della musica non ha fatto eccezione. Fino al 1983, tutta la musica registrata veniva pubblicata su dischi in vinile e cassette compatte. Attualmente, i CD sono ampiamente utilizzati. Se hai un computer con una scheda audio da studio installata, con una tastiera MIDI e un microfono collegati, puoi lavorare con un software musicale specializzato. Convenzionalmente, può essere suddiviso in diversi tipi: 1) tutti i tipi di utilità e driver progettati per funzionare con schede audio e dispositivi esterni specifici; 2) editor audio progettati per funzionare con file audio, ti consentono di eseguire qualsiasi operazione con essi, dalla suddivisione in parti all'elaborazione con effetti; 3) sintetizzatori software apparsi relativamente di recente e funzionano correttamente solo su computer potenti. Ti permettono di sperimentare la creazione di suoni diversi; e altri.

Il primo gruppo comprende tutti i programmi di utilità sistema operativo. Ad esempio, Win 95 e 98 hanno i propri programmi mixer e utilità per riprodurre/registrare suoni, riprodurre CD e file MIDI standard. Dopo aver installato la scheda audio, puoi utilizzare questi programmi per verificarne la funzionalità. Ad esempio, il programma Phonograph è progettato per funzionare con file wave (file di registrazione audio in formato Windows). Questi file hanno l'estensione .WAV. Questo programma offre la possibilità di riprodurre, registrare e modificare registrazioni audio utilizzando tecniche simili a quelle utilizzate con un registratore. Si consiglia di collegare il microfono al computer per lavorare con il fonografo. Se devi effettuare una registrazione audio, devi decidere la qualità del suono, poiché la durata della registrazione audio dipende da essa. Maggiore è la qualità della registrazione, minore è la durata possibile del suono. Con una qualità di registrazione media, è possibile registrare il parlato in modo soddisfacente, creando file lunghi fino a 60 secondi. La durata della registrazione sarà di circa 6 secondi, che ha la qualità di un CD musicale.

Per poter registrare il suono su qualsiasi supporto, è necessario convertirlo in un segnale elettrico. Questo viene fatto utilizzando un microfono. I microfoni più semplici hanno una membrana che vibra sotto l'influenza delle onde sonore. Una bobina è attaccata alla membrana e si muove in sincronia con la membrana in un campo magnetico. Nella bobina viene visualizzata una variabile elettricità. Le variazioni di tensione riflettono accuratamente le onde sonore. La corrente elettrica alternata che appare all'uscita del microfono è chiamata segnale analogico. Quando applicato a un segnale elettrico, "analogico" significa che il segnale è continuo nel tempo e nell'ampiezza. Riflette accuratamente la forma dell'onda sonora mentre viaggia nell'aria.

Le informazioni audio possono essere rappresentate in forma discreta o analogica. La loro differenza è che con una rappresentazione discreta dell'informazione, una quantità fisica cambia bruscamente (“scala”), assumendo un insieme finito di valori. Se l'informazione viene presentata in forma analogica, una grandezza fisica può assumere un numero infinito di valori che cambiano continuamente.

Diamo un'occhiata brevemente ai processi di conversione del suono da analogico a digitale e viceversa. Un'idea approssimativa di cosa sta succedendo scheda audio, può aiutare a evitare alcuni errori quando si lavora con l'audio. Le onde sonore vengono convertite in un segnale elettrico alternato analogico utilizzando un microfono. Passa attraverso il percorso del suono ed entra convertitore analogico-digitale(ADC) - un dispositivo che converte un segnale in forma digitale. In forma semplificata, il principio Funzionamento dell'ADCè il seguente: misura l'ampiezza del segnale a determinati intervalli e trasmette ulteriormente, lungo il percorso digitale, una sequenza di numeri che portano informazioni sui cambiamenti di ampiezza. L'audio digitale viene emesso utilizzando un convertitore digitale-analogico (DAC) che, sulla base dei dati digitali in ingresso, genera un segnale elettrico dell'ampiezza richiesta nei momenti appropriati.

Se si rappresenta graficamente lo stesso suono a 1 kHz (la nota fino alla settima ottava di un pianoforte corrisponde grosso modo a questa frequenza), ma campionato a frequenze diverse (la parte inferiore dell'onda sinusoidale non è mostrata in tutti i grafici), le differenze sarà visibile. Una divisione sull'asse orizzontale, che mostra il tempo, corrisponde a 10 campioni. La scala è la stessa (vedi Appendice Figura 1.13). Puoi vedere che a 11 kHz ci sono circa cinque oscillazioni dell'onda sonora per ogni 50 campioni, il che significa che un periodo dell'onda sinusoidale è rappresentato con soli 10 valori. Questo è un rendering piuttosto impreciso. Allo stesso tempo, se consideriamo la frequenza di digitalizzazione di 44 kHz, per ogni periodo della sinusoide ci sono già quasi 50 campioni. Ciò consente di ottenere un segnale di buona qualità.

La profondità di bit indica con quale precisione si verificano i cambiamenti di ampiezza segnale analogico. La precisione con cui viene trasmesso il valore dell'ampiezza del segnale in ogni istante di tempo durante la digitalizzazione determina la qualità del segnale dopo la conversione da digitale ad analogico. L'affidabilità della ricostruzione della forma d'onda dipende dalla profondità di bit.

Per codificare il valore dell'ampiezza, viene utilizzato il principio della codifica binaria. Il segnale sonoro deve essere presentato come una sequenza di impulsi elettrici (zero e uno binari). In genere vengono utilizzate rappresentazioni dei valori di ampiezza a 8, 16 o 20 bit. Quando si codifica in formato binario un segnale audio continuo, questo viene sostituito da una sequenza di livelli di segnale discreti. La qualità della codifica dipende dalla frequenza di campionamento (il numero di misurazioni del livello del segnale per unità di tempo). All’aumentare della frequenza di campionamento, aumenta la precisione della rappresentazione binaria delle informazioni. Ad una frequenza di 8 kHz (numero di campioni al secondo 8000), la qualità del segnale audio campionato corrisponde alla qualità di una trasmissione radiofonica, e ad una frequenza di 48 kHz (numero di campioni al secondo 48000) - la qualità del suono di un CD audio.

Se si utilizza la codifica a 8 bit, è possibile ottenere una precisione dell'ampiezza del segnale analogico fino a 1/256 della gamma dinamica di un dispositivo digitale (28 = 256).

Se si utilizza la codifica a 16 bit per rappresentare i valori di ampiezza del segnale audio, la precisione della misurazione aumenterà di 256 volte.

I convertitori moderni utilizzano in genere la codifica del segnale a 20 bit, che consente la digitalizzazione audio di alta qualità.

Conclusione

Il codice è un insieme simboli(o segnali) per registrare (o trasmettere) alcuni concetti predefiniti.

La codifica delle informazioni è il processo di formazione di una rappresentazione specifica delle informazioni. In un senso più stretto, il termine “codifica” è spesso inteso come una transizione da una forma di rappresentazione delle informazioni a un'altra, più conveniente per l'archiviazione, la trasmissione o l'elaborazione.

In genere, ogni immagine è rappresentata da un carattere separato durante la codifica. Un segno è un elemento di un insieme finito di elementi distinti tra loro. Un segno insieme al suo significato è chiamato simbolo. La lunghezza del codice è il numero di caratteri utilizzati per la codifica.

Il codice può essere di lunghezza costante o non costante. Per rappresentare le informazioni nella memoria del computer, viene utilizzato un metodo di codifica binaria.

Una cella di memoria elementare di un computer è lunga 8 bit. Ogni byte ha il proprio numero. La più grande sequenza di bit che un computer può elaborare come una singola unità è chiamata parola macchina. La lunghezza di una parola macchina dipende dalla profondità di bit del processore e può essere pari a 16, 32 bit, ecc. Un altro modo per rappresentare i numeri interi è con il codice in complemento a due. L'intervallo dei valori dipende dal numero di bit di memoria assegnati per la loro memorizzazione. Codice aggiuntivo il numero positivo coincide con il suo codice diretto.

Bibliografia

1.Informatica e tecnologie dell'informazione. Ed. Yu.D. Romanova, 3a edizione, M.: EKSMO, 2008

2. Kostrov B.V. Fondamenti di trasmissione digitale e codifica delle informazioni. - TechBook, 2007, 192 pagine.

3. Makarova N.V. "Informatica": libro di testo. - M.: Finanza e Statistica, 2005 - 768 p.

4. Stepanenko O. S. Personal computer. Manuale di autoistruzione Dialettica. 2005, 28 pp.

Buona giornata, caro utente. In questo articolo parleremo di argomenti come: Codifica delle informazioni, Codifica delle informazioni di testo, Codifica delle informazioni in un computer.

Codificazione delle informazioni in un computer.

Oggi, un personal computer può elaborare informazioni numeriche, testuali, grafiche, audio e video. Tutte le informazioni in un computer sono presentate in codice binario, ovvero viene utilizzato un alfabeto di due simboli 0 e 1. È nel codice binario che è più semplice rappresentare le informazioni come un impulso elettrico, la sua assenza (0) e la sua presenza (1).

Questo tipo di codifica è solitamente chiamato binario e l'alfabeto di codifica binaria di zero e uno, che trasporta un carico semantico sul computer, è solitamente chiamato linguaggio macchina.

Nota

Ogni cifra di un codice binario occupa 1 bit di spazio di memoria, rispettivamente, due cifre sono 2 bit, tre cifre sono 3 bit, ecc...

Codificazione delle informazioni testuali.

Oggi un gran numero di utenti utilizza un computer elabora le informazioni testuali, che consiste di: lettere, numeri, segni di punteggiatura e altri elementi.

Tipicamente utilizzato per codificare un singolo carattere 1 byte memoria da 8 bit. Secondo la teoria della probabilità, utilizzando una semplice formula che collega il numero di eventi possibili (K) e la quantità di informazioni (I), è possibile calcolare quanti eventi diversi i caratteri possono essere codificati: K = 2^I = 28 = 256.

Nota

Per codifica delle informazioni testuali Di solito usano un alfabeto con una capacità di 256 caratteri...

Il principio di questa codifica è che ogni carattere (lettera, segno) ha il proprio codice binario da 00000000 a 11111111, nonché è possibile presentare informazioni di testo in codice decimale da 0 a 255.

Va ricordato che oggi per codificare le lettere dell'alfabeto russo utilizza cinque diverse tabelle di codifica (KOI - 8, CP1251, CP866, Mac, ISO), ricorda che i testi codificati utilizzando una tabella non verranno visualizzati correttamente in un'altra codifica. Questo può essere visto in tabella di codifica dei caratteri unificata.

Per un codice binario, simboli diversi corrispondono a tabelle diverse:

Codice binario Codice decimale KOI8 CP1251 CP866 Mas ISO
11000010 194 B IN T

Ad oggi ricodifica di documenti di testo Non è l'utente che si preoccupa, ma i programmi che sono integrati editor di testo E elaboratori di testi. All'inizio del 1997 Microsoft Office ha iniziato a supportare la nuova codifica Unicode. In Unicode puoi codificare non 256 caratteri e, 65536, ciò è stato ottenuto allocando 2 byte per ciascun carattere. Oggi le due tabelle più popolari sono Windows (CP1251) e Unicode.

Risolviamo i problemi.

Compito n. 1.
Diciamo di avere due testi che contengono lo stesso numero di caratteri. Un testo è scritto nell'alfabeto russo (32 caratteri) e il secondo è scritto nell'alfabeto ucraino (16 caratteri). Quale testo contiene più informazioni?

Soluzione

I = K * a (il volume delle informazioni del testo è uguale al prodotto del numero di caratteri e del peso delle informazioni di un carattere). Perché Entrambi i testi hanno lo stesso numero di caratteri (K), quindi la differenza dipende dal contenuto informativo di un carattere dell'alfabeto (a).
2^a1 = 32, cioè a1 = 5 bit.
2^a2 = 16, cioè a2 = 4 bit.
I1 = K * 5 bit, I2 = K * 4 bit.
Ciò significa che un testo scritto in russo porta 5/4 volte più informazioni.

Compito n. 2.
La dimensione del messaggio, contenente 2048 caratteri, era 1/512 di MB. Determinare il potere dell'alfabeto.

Soluzione

I = 1/512 * 1024 * 1024 * 8 = 16384 bit. - convertito in bit il volume di informazioni del messaggio.
a = I / K = 16384 / 1024 = 16 bit - rappresenta un carattere dell'alfabeto.
2^16 = 65536 caratteri - la potenza dell'alfabeto utilizzato.
Questo è l'alfabeto utilizzato nella codifica Unicode, che è diventato lo standard internazionale per rappresentare le informazioni simboliche in un computer.

Un computer moderno può elaborare informazioni numeriche, testuali, grafiche, audio e video. Tutti questi tipi di informazioni in un computer sono presentati in codice binario, ovvero viene utilizzato un alfabeto con una capacità di due caratteri (0 e 1). Ciò è dovuto al fatto che è conveniente rappresentare l'informazione sotto forma di una sequenza di impulsi elettrici: non c'è nessun impulso (0), c'è un impulso (1). Tale codifica è solitamente chiamata binaria e le sequenze logiche di zero e uno sono chiamate linguaggio macchina.

Ogni cifra del codice binario della macchina trasporta una quantità di informazioni pari a un bit.

Questa conclusione può essere fatta considerando i numeri dell’alfabeto della macchina come eventi ugualmente probabili. Quando si scrive una cifra binaria, è possibile scegliere solo uno dei due stati possibili, il che significa che trasporta una quantità di informazioni pari a 1 bit. Pertanto, due cifre portano 2 bit di informazione, quattro cifre portano 4 bit, ecc. Per determinare la quantità di informazioni in bit, è sufficiente determinare il numero di cifre nel codice macchina binario.

Codifica delle informazioni di testo

Attualmente, la maggior parte degli utenti utilizza un computer per elaborare le informazioni di testo, costituite da simboli: lettere, numeri, segni di punteggiatura, ecc.

Sulla base di una cella con una capacità di informazione di 1 bit possono essere codificati solo 2 stati diversi. Affinché ogni carattere che può essere inserito dalla tastiera nel caso latino riceva il proprio codice binario univoco, sono necessari 7 bit. Sulla base di una sequenza di 7 bit, secondo la formula di Hartley, si possono ottenere N = 2 7 = 128 diverse combinazioni di zeri e uno, cioè codici binari. Assegnando ad ogni carattere il suo codice binario, otteniamo una tabella di codifica. Una persona opera con i simboli, un computer con i suoi codici binari.

Per il layout della tastiera latina, esiste una sola tabella di codifica per tutto il mondo, quindi il testo digitato utilizzando il layout latino verrà visualizzato adeguatamente su qualsiasi computer. Questa tabella si chiama ASCII (American Standard Code of Information Interchange) in inglese si pronuncia [éski], in russo si pronuncia [áski]. Di seguito è riportata l'intera tabella ASCII, i cui codici sono indicati in forma decimale. Da esso puoi determinare che quando inserisci, ad esempio, il simbolo "*" dalla tastiera, il computer lo percepisce come codice 42(10), a sua volta 42(10)=101010(2) - questo è il codice binario di il simbolo "* " I codici da 0 a 31 non vengono utilizzati in questa tabella.

Tabella dei caratteri ASCII

Per codificare un carattere viene utilizzata una quantità di informazioni pari a 1 byte, ovvero I = 1 byte = 8 bit. Utilizzando una formula che mette in relazione il numero di possibili eventi K e la quantità di informazioni I, puoi calcolare quanti simboli diversi possono essere codificati (assumendo che i simboli siano eventi possibili):

K = 2 I = 2 8 = 256,

cioè, un alfabeto con una capacità di 256 caratteri può essere utilizzato per rappresentare informazioni di testo.

L'essenza della codifica è che a ogni carattere viene assegnato un codice binario da 00000000 a 11111111 o un codice decimale corrispondente da 0 a 255.

Va ricordato che attualmente Per codificare le lettere russe vengono utilizzate cinque diverse tabelle di codici(KOI - 8, SR1251, SR866, Mac, ISO) e i testi codificati utilizzando una tabella non verranno visualizzati correttamente in un'altra codifica. Questo può essere rappresentato visivamente come un frammento di una tabella di codifica dei caratteri combinata.

Simboli diversi sono assegnati allo stesso codice binario.

Codice binario

Codice decimale

Tuttavia, nella maggior parte dei casi, non è l'utente a occuparsi della transcodifica dei documenti di testo, ma programmi speciali: convertitori integrati nelle applicazioni.

Dal 1997, l'ultima Versioni Microsoft Office supporta la nuova codifica. Si chiama Unicode. Unicode è una tabella di codifica che utilizza 2 byte per codificare ciascun carattere, ad es. 16 bit. Sulla base di tale tabella è possibile codificare N=2 16 =65.536 caratteri.

Unicode comprende quasi tutte le scritture moderne, tra cui: arabo, armeno, bengalese, birmano, greco, georgiano, devanagari, ebraico, cirillico, copto, khmer, latino, tamil, hangul, han (Cina, Giappone, Corea), cherokee, etiope, Giapponese (katakana, hiragana, kanji) e altri.

Per scopi accademici sono state aggiunte molte scritture storiche, tra cui: il greco antico, i geroglifici egiziani, il cuneiforme, la scrittura maya e l'alfabeto etrusco.

Unicode fornisce un'ampia gamma di simboli e pittogrammi matematici e musicali.

Esistono due intervalli di codici per i caratteri cirillici in Unicode:

Cirillico (#0400 - #04FF)

Supplemento cirillico (#0500 - #052F).

Ma l'implementazione della tabella Unicode nella sua forma pura è ostacolata dal fatto che se il codice di un carattere occupa non un byte, ma due byte, ci vorrà il doppio dello spazio su disco per memorizzare il testo e il doppio tanto tempo per trasmetterlo sui canali di comunicazione.

Pertanto, in pratica ora è più comune la rappresentazione Unicode UTF-8 (Unicode Transformation Format). UTF-8 offre la migliore compatibilità con i sistemi che utilizzano caratteri a 8 bit. Il testo costituito solo da caratteri con numero inferiore a 128 viene convertito in testo ASCII semplice se scritto in UTF-8. Altri caratteri Unicode sono rappresentati come sequenze di lunghezza compresa tra 2 e 4 byte. In generale, poiché i caratteri più comuni al mondo, l'alfabeto latino, occupano ancora 1 byte in UTF-8, questa codifica è più economica dell'Unicode puro.

Per determinare il codice numerico di un carattere, puoi utilizzare una tabella di codici. Per fare ciò, seleziona "Inserisci" - "Simbolo" dal menu, dopodiché sullo schermo appare il pannello di dialogo Simbolo. Nella finestra di dialogo viene visualizzata una tabella di caratteri per il carattere selezionato. I caratteri in questa tabella sono disposti riga per riga, in sequenza da sinistra a destra, a partire dal carattere Spazio.

Codice - un sistema di segni convenzionali (simboli) per trasmettere, elaborare e archiviare informazioni (messaggi).

Codifica- il processo di presentazione delle informazioni (messaggi) sotto forma di codice.

Viene chiamato l'intero set di simboli utilizzati per la codifica codifica alfabetica. Ad esempio, nella memoria del computer, qualsiasi informazione viene codificata utilizzando un alfabeto binario contenente solo due caratteri: 0 e 1.

La base scientifica della codifica è stata descritta da K. Shannon, che ha studiato i processi di trasmissione delle informazioni canali tecnici comunicazioni ( teoria della comunicazione, teoria della codifica). Con questo approccio codifica inteso in senso più stretto: come transizione dalla rappresentazione dell'informazione in un sistema simbolico alla rappresentazione in un altro sistema simbolico. Ad esempio, la conversione del testo russo scritto in codice Morse per la trasmissione tramite telegrafo o comunicazioni radio. Tale codifica è associata alla necessità di adattare il codice ai mezzi tecnici di lavoro con le informazioni utilizzate (vedi “ Trasferimento di informazioni”).

Decodifica - il processo di riconversione del codice nella forma del sistema di simboli originale, cioè. ricevere il messaggio originale. Ad esempio: traduzione dal codice Morse in testo scritto in russo.

In un senso più ampio, la decodifica è il processo di ricostruzione del contenuto di un messaggio codificato. Con questo approccio, il processo di scrittura del testo utilizzando l'alfabeto russo può essere considerato come una codifica e la sua lettura come decodificazione.

Obiettivi di codifica e metodi di codifica

Il modo di codificare lo stesso messaggio potrebbe essere diverso. Ad esempio, siamo abituati a scrivere testi russi utilizzando l'alfabeto russo. Ma lo stesso si può fare utilizzando l’alfabeto inglese. A volte devi farlo inviando SMS tramite cellulare, su cui non ci sono lettere russe o invii e-mail in russo dall'estero, se sul tuo computer non è presente una versione russificata Software. Ad esempio, la frase: "Ciao, caro Sasha!" devi scrivere così: “Zdravstvui, dorogoi Sasha!”

Esistono altri modi per codificare il parlato. Per esempio, abbreviazione - modo rapido registrazioni del parlato. Viene utilizzato solo da poche persone appositamente addestrate: gli stenografi. Lo stenografo riesce a registrare il testo in modo sincrono con il discorso dell'oratore. Nella trascrizione, un'icona rappresentava un'intera parola o frase. Solo uno stenografo può trascrivere (decodificare) la trascrizione.

Gli esempi sopra riportati illustrano la seguente regola importante: può essere utilizzato per codificare le stesse informazioni diversi modi; la loro scelta dipende da una serie di circostanze: codificare obiettivi, condizioni, fondi disponibili. Se è necessario scrivere il testo al ritmo del discorso, usiamo la stenografia; se dobbiamo trasmettere testi all'estero utilizziamo l'alfabeto inglese; Se è necessario presentare il testo in una forma comprensibile a un russo alfabetizzato, lo scriviamo secondo le regole della grammatica russa.

Un'altra circostanza importante: la scelta di come codificare le informazioni può essere correlata al metodo previsto per elaborarle. Mostriamolo usando l'esempio della rappresentazione dei numeri: informazioni quantitative. Usando l'alfabeto russo, puoi scrivere il numero "trentacinque". Usando lo stesso alfabeto arabo sistema decimale notazione, scriviamo: “35”. Il secondo metodo non è solo più breve del primo, ma anche più conveniente per eseguire i calcoli. Quale notazione è più conveniente per eseguire i calcoli: “trentacinque volte centoventisette” o “35 x 127”? Ovviamente la seconda.

Tuttavia, se è importante preservare il numero senza distorsioni, è meglio scriverlo sotto forma di testo. Ad esempio, nei documenti monetari l’importo è spesso scritto in forma testuale: “trecentosettantacinque rubli”. invece di “375 rub.”. Nel secondo caso, la distorsione di una cifra modificherà l'intero valore. Quando si utilizza la forma testuale, anche gli errori grammaticali potrebbero non alterare il significato. Ad esempio, una persona analfabeta ha scritto: "Trecentosettantacinque rubli". Tuttavia il significato resta.

In alcuni casi, è necessario classificare il testo di un messaggio o di un documento in modo che chi non dovrebbe leggerlo non possa leggerlo. È chiamato protezione contro l'accesso non autorizzato. In questo caso, il testo segreto viene crittografato. Nei tempi antichi, la crittografia era chiamata scrittura segreta. Crittografiaè il processo di trasformazione del testo in chiaro in testo cifrato e decrittazione- un processo di conversione inversa in cui viene ripristinato il testo originale. Anche la crittografia è codifica, ma con un metodo segreto noto solo alla fonte e al destinatario. I metodi di crittografia sono oggetto di una scienza chiamata crittografia(cm . "Crittografia").

Storia metodi tecnici codificazione delle informazioni

Con l'avvento dei mezzi tecnici per archiviare e trasmettere informazioni, sono nate nuove idee e tecniche di codifica. Primo mezzi tecnici Il telegrafo, inventato nel 1837 dall'americano Samuel Morse, divenne la base per la trasmissione di informazioni a distanza. Un messaggio telegrafico è una sequenza di segnali elettrici trasmessi da un apparecchio telegrafico attraverso fili a un altro apparecchio telegrafico. Queste circostanze tecniche hanno portato S. Morse all'idea di utilizzare solo due tipi di segnali - corti e lunghi - per codificare i messaggi trasmessi sulle linee di comunicazione telegrafiche.

Samuel Finley Breese Morse (1791–1872), Stati Uniti

Questo metodo di codifica è chiamato codice Morse. In esso, ogni lettera dell'alfabeto è codificata con la sequenza brevi segnali(punti) e segnali lunghi (trattini). Le lettere sono separate l'una dall'altra da pause: l'assenza di segnali.

Il messaggio telegrafico più famoso è il segnale di soccorso SOS ( S Ave O il tuo S oul- salvare le nostre anime). Ecco come appare nel codice Morse applicato all'alfabeto inglese:

–––

Tre punti (lettera S), tre trattini (lettera O), tre punti (lettera S). Due pause separano le lettere l'una dall'altra.

La figura mostra il codice Morse in relazione all'alfabeto russo. Non c'erano segni di punteggiatura speciali. Sono stati scritti con le parole: "tchk" - punto, "zpt" - virgola, ecc.

Una caratteristica del codice Morse è lunghezza del codice variabile di lettere diverse, ecco perché si chiama codice Morse codice non uniforme. Le lettere che compaiono più spesso nel testo hanno un codice più breve rispetto alle lettere rare. Ad esempio, il codice per la lettera "E" è un punto e il codice per un carattere continuo è composto da sei caratteri. Questo viene fatto per ridurre la lunghezza dell'intero messaggio. Ma a causa della lunghezza variabile del codice delle lettere, sorge il problema di separare le lettere l'una dall'altra nel testo. Pertanto, è necessario utilizzare una pausa (salta) per la separazione. Di conseguenza, l'alfabeto telegrafico Morse è ternario, perché utilizza tre caratteri: punto, trattino, spazio.

Codice telegrafico uniformeè stato inventato dal francese Jean Maurice Baudot alla fine del XIX secolo. Ne ha usati solo due tipi diversi segnali. Non importa come li chiami: punto e linea, più e meno, zero e uno. Si tratta di due segnali elettrici diversi. La lunghezza del codice di tutti i simboli è la stessa ed è uguale a cinque. In questo caso non c'è problema di separare le lettere tra loro: ogni cinque segnali è un carattere di testo. Pertanto non è necessario il pass.

Jean Maurice Emile Baudot (1845–1903), Francia

Il codice Baudot è il primo metodo di codifica binaria delle informazioni nella storia della tecnologia.. Grazie a questa idea fu possibile realizzare un apparecchio telegrafico a stampa diretta che somigliava ad una macchina da scrivere. Premendo un tasto con una determinata lettera si genera un corrispondente segnale a cinque impulsi, che viene trasmesso sulla linea di comunicazione. Il dispositivo ricevente, sotto l'influenza di questo segnale, stampa la stessa lettera su un nastro di carta.

I computer moderni utilizzano anche un codice binario uniforme per codificare i testi (vedi “ Sistemi di codifica del testo”).

Il tema della codifica delle informazioni può essere presentato nel curriculum in tutte le fasi dello studio dell'informatica a scuola.

Nel corso propedeutico, agli studenti vengono spesso offerti compiti che non sono legati alla codifica dei dati del computer e sono, in un certo senso, sotto forma di un gioco. Ad esempio, sulla base di una tabella di codici Morse, è possibile proporre sia attività di codifica (per codificare un testo russo utilizzando il codice Morse) sia attività di decodifica (per decifrare un testo codificato utilizzando il codice Morse).

L'esecuzione di tali compiti può essere interpretata come il lavoro di un crittografo, che offre varie semplici chiavi di crittografia. Ad esempio, alfanumerico, sostituendo ciascuna lettera con il relativo numero di serie nell'alfabeto. Inoltre, per codificare completamente il testo, è necessario aggiungere all'alfabeto segni di punteggiatura e altri simboli. Sfidare gli studenti a trovare un modo per differenziarsi. lettere minuscole dalle capitali.

Quando si eseguono tali compiti, è necessario attirare l'attenzione degli studenti sul fatto che è richiesto un carattere di separazione: uno spazio, poiché il codice risulta essere irregolare: alcune lettere sono crittografate con un numero, altre con due.

Incoraggia gli studenti a pensare a come evitare di separare le lettere nel codice. Queste riflessioni dovrebbero portare all'idea di un codice uniforme, in cui ogni carattere è codificato con due cifre decimali: A - 01, B - 02, ecc.

Raccolte di problemi sulla codifica e sulla crittografia delle informazioni sono disponibili in numerosi libri di testo per la scuola.

Nel corso di informatica di base per la scuola secondaria, il tema della codifica è più strettamente associato al tema della rappresentazione nel computer vari tipi dati: numeri, testi, immagini, suoni (vedi “ Tecnologie dell'informazione”).

Nella scuola superiore, il contenuto di un corso di istruzione generale o facoltativo può coprire in modo più dettagliato questioni relative alla teoria della codifica sviluppata da K. Shannon nel quadro della teoria dell'informazione. Ci sono una serie di problemi interessanti qui, la cui comprensione richiede livello più alto formazione matematica e di programmazione degli studenti. Questi sono problemi di codifica economica, algoritmo di codifica universale e codifica con correzione degli errori. Molti di questi problemi sono trattati in dettaglio nel libro di testo “Fondamenti matematici dell'informatica”.

1. Andreeva E.IN.,Bosova L.l.,Falina I.N. Fondamenti matematici dell'informatica. Corso facoltativo. M.: BINOM. Laboratorio della Conoscenza, 2005.

2. Beshenkov S.UN.,Rakitina E.UN. Informatica. Corso sistematico. Libro di testo per la 10a elementare. M.: Laboratorio Conoscenza di base, 2001, 57 pag.

3.Vienna N. Cibernetica o controllo e comunicazione negli animali e nelle macchine. M.: Radio sovietica, 1968, 201 p.

4. Informatica. Libro-laboratorio di problemi in 2 volumi / Ed. IG Semakina, E.K. Henner. T.1.M.: BINOM. Laboratorio della Conoscenza, 2005.

5. Kuznetsov A.A., Beshenkov S.A., Rakitina E.A., Matveeva N.V., Milokhina L.V. Corso continuo di informatica (concetto, sistema di moduli, programma standard). Informatica e istruzione, n. 1, 2005.

6. Dizionario enciclopedico matematico. Sezione: “Dizionario di informatica scolastica”. M.: Enciclopedia Sovietica, 1988.

7.Friedland A.IO. Informatica: processi, sistemi, risorse. M.: BINOM. Laboratorio della Conoscenza, 2003.