Trasferimento di informazioni attraverso canali di comunicazione tecnica. Riepilogo della lezione sull'argomento “Trasferimento di informazioni. Rappresentazione intera

| 8 classi | Pianificazione delle lezioni per l'anno scolastico | Lavora nella rete locale di una classe di computer in modalità condivisione file

Lezione 2
Lavora nella rete locale di una classe di computer in modalità condivisione file

Trasferimento di informazioni tramite canali di comunicazione tecnica

Trasferimento di informazioni tramite canali di comunicazione tecnica

Il piano di Shannon

Uno scienziato americano, uno dei fondatori della teoria dell'informazione, Claude Shannon ha proposto un diagramma del processo di trasmissione delle informazioni attraverso canali di comunicazione tecnica (Fig. 1.3).

Riso. 1.3. Schema di un sistema di trasmissione di informazioni tecniche

Il funzionamento di un tale schema può essere spiegato dal processo familiare di parlare al telefono. Una fonte di informazioni- persona parlante. codificatore Microfono portatile che converte le onde sonore (parole) in segnali elettrici. Canale di comunicazione - rete telefonica (fili, interruttori di nodi telefonici attraverso i quali passa il segnale). Decodificatore- un microtelefono (auricolare) di una persona che ascolta - un ricevitore di informazioni. Qui il segnale elettrico in ingresso viene convertito in suono.

Qui, le informazioni vengono trasmesse sotto forma di un segnale elettrico continuo. Questo comunicazione analogica.

Informazioni di codifica e decodifica

Sotto codifica si intende qualsiasi trasformazione dell'informazione proveniente da una fonte in una forma idonea alla sua trasmissione su un canale di comunicazione.

All'alba dell'era delle comunicazioni radio, veniva utilizzato il codice alfabetico morse. Il testo è stato convertito in una sequenza di punti e trattini (segnali brevi e lunghi) e trasmesso. Una persona che ha ricevuto una tale trasmissione a orecchio avrebbe dovuto essere in grado di decodificare il codice in testo. Anche prima, il codice Morse veniva utilizzato nelle comunicazioni telegrafiche. La trasmissione di informazioni utilizzando il codice Morse è un esempio di comunicazione discreta.

Attualmente, la comunicazione digitale è ampiamente utilizzata, quando le informazioni trasmesse sono codificate in forma binaria (0 e 1 sono cifre binarie) e quindi decodificate in testo, immagine, suono. Anche la comunicazione digitale, ovviamente, è discreta.

Protezione dal rumore e dal rumore. Teoria dei codici di Shannon

Le informazioni vengono trasmesse attraverso i canali di comunicazione mediante segnali di varia natura fisica: elettrico, elettromagnetico, luminoso, acustico. Il contenuto informativo di un segnale consiste nel valore o nella variazione del valore della sua grandezza fisica (intensità di corrente, intensità della luce, ecc.). Il termine "rumore" chiamato vari tipi di interferenza che distorcono il segnale trasmesso e portano alla perdita di informazioni. Tale interferenza si verifica principalmente per motivi tecnici: scarsa qualità delle linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. Spesso, quando si parla al telefono, si sentono rumori, crepitii, che rendono difficile la comprensione dell'interlocutore, oppure la conversazione di altre persone si sovrappone alla nostra conversazione. In tali casi è necessaria la protezione dal rumore.

Prima di tutto applicare modi tecnici protezione dei canali di comunicazione dall'esposizione al rumore. Tali metodi sono molto diversi, a volte semplici, a volte molto complessi. Ad esempio, utilizzando un cavo schermato anziché un filo nudo; l'uso di vari tipi di filtri che separano il segnale utile dal rumore, ecc.

K. Shannon ha sviluppato una speciale teoria della codifica, che fornisce metodi per gestire il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione deve essere ridondante. A causa di ciò, la perdita di una parte delle informazioni durante la trasmissione può essere compensata. Ad esempio, se sei difficile da sentire quando parli al telefono, ripetendo ogni parola due volte, hai maggiori possibilità che l'interlocutore ti capisca correttamente.

Tuttavia, non puoi farlo ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione. La teoria del codice di Shannon ti consente solo di ottenere un tale codice che sarà ottimale. In questo caso, la ridondanza delle informazioni trasmesse sarà la minima possibile e l'affidabilità delle informazioni ricevute sarà la massima.

Nei moderni sistemi di comunicazione digitale, la seguente tecnica viene spesso utilizzata per combattere la perdita di informazioni durante la trasmissione. L'intero messaggio è diviso in porzioni: pacchetti. Per ogni pacchetto viene calcolato un checksum (la somma delle cifre binarie) che viene trasmesso insieme a questo pacchetto. Nel luogo di ricezione, il checksum del pacchetto ricevuto viene ricalcolato e, se non corrisponde all'originale, viene ripetuta la trasmissione di questo pacchetto. Ciò accade fino a quando il checksum iniziale e quello finale non corrispondono.

Brevemente sul principale

Qualsiasi sistema di trasmissione di informazioni tecniche è costituito da una sorgente, un ricevitore, dispositivi di codifica e decodifica e un canale di comunicazione.

Sotto codifica si riferisce alla trasformazione dell'informazione proveniente da una fonte in una forma adatta alla sua trasmissione attraverso un canale di comunicazione. Decodificaè la trasformazione inversa.

Rumore sono interferenze che portano alla perdita di informazioni.

Nella teoria dei codici sviluppata metodi rappresentazione delle informazioni trasmesse al fine di ridurne la perdita sotto l'influenza del rumore.

Domande e compiti

1. Quali sono gli elementi principali dello schema di trasferimento delle informazioni proposto da K. Shannon.

2. Cos'è la codifica e la decodifica nella trasmissione delle informazioni?

3. Cos'è il rumore? Quali sono le sue implicazioni per la trasmissione delle informazioni?

4. Quali sono i modi per affrontare il rumore?

EC CER: Parte 2, conclusione, aggiunta al capitolo 1, § 1.1. COR n. 1.

Schema di trasferimento delle informazioni. Canale di trasferimento delle informazioni. Velocità di trasferimento delle informazioni.

Esistono tre tipi di processi informativi: archiviazione, trasmissione, elaborazione.

Archivio dati:

· Supporti informativi.

tipi di memoria.

· Conservazione delle informazioni.

· Proprietà di base degli archivi di informazioni.

Associato alla memorizzazione delle informazioni i seguenti concetti: supporto di memorizzazione (memoria), memoria interna, memoria esterna, archiviazione di informazioni.

Un supporto di memorizzazione è un supporto fisico che memorizza direttamente le informazioni. La memoria umana può essere chiamata RAM. La conoscenza appresa viene riprodotta da una persona all'istante. Possiamo anche chiamare la nostra memoria memoria interna perché il suo vettore - il cervello - è dentro di noi.

Tutti gli altri tipi di supporti di informazioni possono essere chiamati esterni (in relazione a una persona): legno, papiro, carta, ecc. L'archiviazione delle informazioni è un'informazione organizzata in un certo modo su supporti esterni, destinati all'archiviazione a lungo termine e all'uso permanente (ad esempio, archivi di documenti, biblioteche, schedari). L'unità informativa principale del repository è un certo documento fisico: un questionario, un libro, ecc. L'organizzazione del repository significa la presenza di una certa struttura, ad es. ordine, classificazione dei documenti archiviati per la comodità di lavorare con essi. Le principali proprietà dell'archiviazione delle informazioni: la quantità di informazioni memorizzate, l'affidabilità dell'archiviazione, il tempo di accesso (ovvero il tempo di ricerca informazione necessaria), disponibilità della protezione delle informazioni.

Le informazioni memorizzate sui dispositivi di memoria del computer sono chiamate dati. Archivi di dati organizzati sui dispositivi memoria esterna i computer sono chiamati database e banche dati.

Elaborazione dati:

· Lo schema generale del processo di elaborazione delle informazioni.

· Dichiarazione dell'incarico del trattamento.

· Responsabile del trattamento.

· Algoritmo di elaborazione.

· Compiti tipici dell'elaborazione delle informazioni.

Schema di elaborazione delle informazioni:

Informazioni iniziali - esecutore dell'elaborazione - informazioni finali.

Nel processo di elaborazione delle informazioni viene risolto un problema informativo, che può essere preliminarmente impostato nella forma tradizionale: viene fornito un certo insieme di dati iniziali, è necessario per ottenere alcuni risultati. Lo stesso processo di transizione dai dati di origine al risultato è il processo di elaborazione. L'oggetto o il soggetto che esegue l'elaborazione è chiamato esecutore dell'elaborazione.

Per eseguire correttamente l'elaborazione delle informazioni, l'esecutore (persona o dispositivo) deve conoscere l'algoritmo di elaborazione, ad es. sequenza di passaggi da seguire per ottenere il risultato desiderato.

Esistono due tipi di elaborazione delle informazioni. Il primo tipo di elaborazione: elaborazione associata all'ottenimento di nuove informazioni, nuovi contenuti di conoscenza (risoluzione di problemi matematici, analisi della situazione, ecc.). Il secondo tipo di elaborazione: elaborazione associata a una modifica della forma, ma non modifica del contenuto (ad esempio, traduzione di testo da una lingua all'altra).

Un tipo importante di elaborazione delle informazioni è la codifica: la trasformazione delle informazioni in una forma simbolica conveniente per l'archiviazione, la trasmissione, l'elaborazione. La codifica viene utilizzata attivamente nei mezzi tecnici per lavorare con le informazioni (telegrafo, radio, computer). Un altro tipo di elaborazione delle informazioni è la strutturazione dei dati (introduzione di un certo ordine nell'archiviazione delle informazioni, classificazione, catalogazione dei dati).

Un altro tipo di elaborazione delle informazioni è la ricerca in alcuni archivi di informazioni dei dati necessari che soddisfano determinate condizioni di ricerca (richiesta). L'algoritmo di ricerca dipende dal modo in cui le informazioni sono organizzate.

Trasferimento di informazioni:

· Fonte e destinatario delle informazioni.

· Canali informativi.

Il ruolo degli organi di senso nel processo di percezione umana delle informazioni.

Struttura sistemi tecnici connessioni.

· Cos'è la codifica e la decodifica.

Il concetto di rumore tecniche di protezione dal rumore.

· Velocità di trasferimento delle informazioni e capacità del canale.

Schema di trasferimento delle informazioni:

Fonte di informazioni - canale di informazioni - ricevitore di informazioni.

Le informazioni sono presentate e trasmesse sotto forma di una sequenza di segnali, simboli. Dalla sorgente al destinatario, il messaggio viene trasmesso attraverso un mezzo materiale. Se nel processo di trasmissione vengono utilizzati mezzi tecnici di comunicazione, vengono chiamati canali di trasmissione delle informazioni (canali di informazione). Questi includono telefono, radio, TV. Gli organi di senso umani svolgono il ruolo di canali di informazione biologica.

Il processo di trasmissione delle informazioni attraverso i canali di comunicazione tecnica procede secondo il seguente schema (secondo Shannon):

Il termine "rumore" si riferisce a vari tipi di interferenza che distorcono il segnale trasmesso e portano alla perdita di informazioni. Tali interferenze, prima di tutto, sorgono per motivi tecnici: scarsa qualità delle linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. Utilizzato per la protezione dal rumore diversi modi, ad esempio, l'utilizzo di vari tipi di filtri che separano il segnale utile dal rumore.

Claude Shannon ha sviluppato una speciale teoria della codifica che fornisce metodi per gestire il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione deve essere ridondante. A causa di ciò, la perdita di una parte delle informazioni durante la trasmissione può essere compensata. Tuttavia, non è possibile rendere la ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione.

Quando si discute l'argomento della misurazione della velocità di trasferimento delle informazioni, è possibile utilizzare un'analogia. Un analogo è il processo di pompaggio dell'acqua attraverso i tubi dell'acqua. Qui, i tubi sono il canale per la trasmissione dell'acqua. L'intensità (velocità) di questo processo è caratterizzata dal consumo di acqua, ad es. il numero di litri pompati per unità di tempo. Nel processo di trasmissione delle informazioni, i canali sono linee di comunicazione tecnica. Per analogia con una tubatura dell'acqua, possiamo parlare del flusso di informazioni trasmesso attraverso i canali. La velocità di trasferimento delle informazioni è il volume di informazioni di un messaggio trasmesso per unità di tempo. Pertanto, le unità di misura della velocità del flusso informativo: bit/s, byte/s, ecc. canale di trasmissione del processo informativo

Un altro concetto - la larghezza di banda dei canali di informazione - può anche essere spiegato usando l'analogia "idraulica". È possibile aumentare il flusso d'acqua attraverso i tubi aumentando la pressione. Ma questo percorso non è infinito. Se viene applicata troppa pressione, il tubo potrebbe scoppiare. Pertanto, la portata massima dell'acqua, che può essere definita la capacità dell'approvvigionamento idrico. Anche le linee di comunicazione dei dati tecnici hanno un limite di velocità dati simile. Le ragioni di ciò sono anche fisiche.

1. Classificazione e caratteristiche del canale di comunicazione
Collegamento è un insieme di mezzi destinati alla trasmissione di segnali (messaggi).
Per analizzare i processi informativi in ​​un canale di comunicazione, è possibile utilizzare il suo schema generalizzato mostrato in fig. 1.

AI
LS
P
PI
P

Sulla fig. 1 ha adottato le seguenti designazioni: X, Y, Z, W- segnali, messaggi ; F- ostacolo; LS- linea di comunicazione; AI, P.I– fonte e destinatario delle informazioni; P– convertitori (codifica, modulazione, decodifica, demodulazione).
Esistono vari tipi di canali che possono essere classificati secondo vari criteri:
1. Per tipo di linee di comunicazione: cablato; cavo; fibra ottica;
linee elettriche; canali radio, ecc.
2. Dalla natura dei segnali: continuo; discreto; discreto-continuo (i segnali all'ingresso del sistema sono discreti e all'uscita sono continui e viceversa).
3. Per l'immunità al rumore: canali senza interferenze; con interferenza.
I canali di comunicazione sono caratterizzati da:
1. Capacità del canale definito come il prodotto del tempo di utilizzo del canale T a, l'ampiezza dello spettro delle frequenze trasmesse dal canale F a e gamma dinamica D a. , che caratterizza la capacità del canale di trasmettere diversi livelli di segnali

V a = T a F a D a.(1)
La condizione per abbinare il segnale al canale:
V c £ V k ; T c £ T k ; F c £ F k ; V c £ V k ; Re c £ Re k .
2.Velocità di trasferimento delle informazioni - la quantità media di informazioni trasmesse per unità di tempo.
3.
4. Ridondanza - garantisce l'affidabilità delle informazioni trasmesse ( R= 0¸1).
Uno dei compiti della teoria dell'informazione è determinare la dipendenza della velocità di trasferimento delle informazioni e della capacità del canale di comunicazione dai parametri del canale e dalle caratteristiche dei segnali e delle interferenze.
Un canale di comunicazione può essere figurativamente paragonato alle strade. Strade strette: bassa capacità, ma economiche. Strade larghe: buona capacità di traffico, ma costosa. Il throughput è determinato dal collo di bottiglia.
La velocità di trasferimento dei dati dipende in gran parte dal mezzo di trasmissione nei canali di comunicazione, che sono vari tipi di linee di comunicazione.
Cablato:
1. Cablato– doppino intrecciato (che sopprime parzialmente la radiazione elettromagnetica proveniente da altre sorgenti). Velocità di trasmissione fino a 1 Mbps. Utilizzato nelle reti telefoniche e per la trasmissione dei dati.
2. Cavo coassiale. Velocità di trasferimento 10-100 Mbps - utilizzata in reti locali, tv via cavo eccetera.
3. Fibra ottica. Velocità di trasferimento 1 Gbps.
Negli ambienti 1-3, l'attenuazione in dB è lineare con la distanza, cioè la potenza diminuisce esponenzialmente. Pertanto, dopo una certa distanza, è necessario installare rigeneratori (amplificatori).
Collegamenti radio:
1. Canale radiofonico. Velocità di trasferimento 100–400 Kbps. Utilizza frequenze radio fino a 1000 MHz. Fino a 30 MHz a causa della riflessione dalla ionosfera, è possibile la propagazione delle onde elettromagnetiche oltre la linea di vista. Ma questa gamma è molto rumorosa (ad esempio, dai radioamatori). Da 30 a 1000 MHz: la ionosfera è trasparente ed è necessaria la linea di vista. Le antenne sono installate in quota (a volte sono installati rigeneratori). Utilizzato in radio e televisione.
2. linee a microonde. Velocità di trasferimento fino a 1 Gbps. Utilizzare frequenze radio superiori a 1000 MHz. Ciò richiede una linea di vista e antenne paraboliche altamente direzionali. La distanza tra i rigeneratori è di 10-200 km. Usato per collegamento telefonico, televisione e trasmissione dati.
3. Collegamento satellitare . Vengono utilizzate le frequenze delle microonde e il satellite funge da rigeneratore (e per molte stazioni). Le caratteristiche sono le stesse delle linee a microonde.
2. Larghezza di banda di un canale di comunicazione discreto
Un canale discreto è un insieme di mezzi progettati per trasmettere segnali discreti.
Larghezza di banda del canale di comunicazione - la massima velocità di trasferimento delle informazioni teoricamente ottenibile, a condizione che l'errore non superi un dato valore. Velocità di trasferimento delle informazioni - la quantità media di informazioni trasmesse per unità di tempo. Definiamo le espressioni per calcolare la velocità di trasferimento delle informazioni e il throughput di un canale di comunicazione discreto.
Durante la trasmissione di ciascun simbolo, in media, la quantità di informazioni passa attraverso il canale di comunicazione, che è determinato dalla formula
io (Y, X) = io (X, Y) = H(X) - H (X/Y) = H(Y) - H (Y/X), (2)
Dove: Io (Y, X) - informazioni reciproche, cioè la quantità di informazioni contenute in Y relativamente X;H(X)è l'entropia della sorgente del messaggio; H (X/Y)– entropia condizionale, che determina la perdita di informazione per simbolo associata alla presenza di rumore e distorsione.
Quando si invia un messaggio X t durata T, consiste in N simboli elementari, la quantità media di informazioni trasmesse, tenendo conto della simmetria della reciproca quantità di informazioni, è:
io(Y T, X T) = H(X T) – H(X T /Y T) = H(Y T) – H(Y T /X T) = n . (4)
La velocità di trasferimento delle informazioni dipende dalle proprietà statistiche della sorgente, dal metodo di codifica e dalle proprietà del canale.
Larghezza di banda di un canale di comunicazione discreto
. (5)
Il valore massimo possibile, ad es. si cerca il massimo del funzionale sull'intero insieme delle funzioni di distribuzione di probabilità p (X).
La larghezza di banda dipende dalle caratteristiche tecniche del canale (velocità dell'apparato, tipo di modulazione, livello di interferenza e distorsione, ecc.). Le unità di capacità del canale sono: , , , .
2.1 Canale di comunicazione discreto senza interferenze
Se non ci sono interferenze nel canale di comunicazione, i segnali di ingresso e uscita del canale sono collegati da una dipendenza funzionale univoca.
In questo caso, l'entropia condizionale è uguale a zero e le entropie incondizionate della sorgente e del ricevitore sono uguali, cioè è la quantità media di informazioni nel simbolo ricevuto rispetto a quello trasmesso
io (X, Y) = H(X) = H(Y); H(X/Y) = 0.
Se X t- numero di caratteri per volta T, allora la velocità di trasferimento delle informazioni per un canale di comunicazione discreto senza interferenze è pari a
(6)
Dove V = 1/è la velocità di trasmissione media di un simbolo.
Larghezza di banda per un canale di comunicazione discreto senza interferenze
(7)
Perché la massima entropia corrisponde a simboli equiprobabili, quindi la larghezza di banda per distribuzione uniforme e indipendenza statistica dei simboli trasmessi è pari a:
. (8)
Primo teorema di Shannon per un canale: Se il flusso di informazioni generato dalla fonte è sufficientemente vicino alla larghezza di banda del canale di comunicazione, vale a dire
, dove è un valore arbitrariamente piccolo,
quindi è sempre possibile trovare un metodo di codifica che garantisca la trasmissione di tutti i messaggi sorgente e la velocità di trasferimento delle informazioni sarà molto vicina alla capacità del canale.
Il teorema non risponde alla domanda su come codificare.
Esempio 1 La fonte genera 3 messaggi con probabilità:
p1 = 0,1; p 2 = 0,2 e p 3 = 0,7.
I messaggi sono indipendenti e vengono trasmessi in un codice binario uniforme ( m = 2) con una durata del simbolo di 1 ms. Determina la velocità di trasferimento delle informazioni su un canale di comunicazione senza interferenze.
Soluzione: L'entropia della sorgente è

[bps].
Per trasmettere 3 messaggi con un codice uniforme sono necessari due bit, mentre la durata della combinazione di codice è 2t.
Tasso di segnale medio
V=1/2 T = 500 .
Velocità di trasferimento delle informazioni
C = vH = 500×1,16 = 580 [bps].
2.2 Canale di comunicazione discreto con rumore
Prenderemo in considerazione canali di comunicazione discreti senza memoria.
Canale senza memoria Un canale è chiamato canale in cui ogni simbolo di segnale trasmesso è affetto da interferenze, indipendentemente da quali segnali sono stati trasmessi in precedenza. Cioè, l'interferenza non crea ulteriori collegamenti correlativi tra i simboli. Il nome "senza memoria" significa che durante la trasmissione successiva, il canale sembra non ricordare i risultati delle trasmissioni precedenti.
In presenza di interferenze, la quantità media di informazioni nel simbolo del messaggio ricevuto – Y, relativo al trasmesso - X equivale:
.
Per il simbolo del messaggio X t durata T, consiste in N simboli elementari quantità media di informazioni nel simbolo ricevuto del messaggio - Y T per quanto riguarda il trasferito X t equivale:
I(Y T , X T) = H(X T) - H(X T /Y T) = H(Y T) - H(Y T /X T) = n = 2320 bps
La capacità di un canale continuo con rumore è determinata dalla formula

=2322 bps.
Dimostriamo che la capacità informativa di un canale continuo senza memoria con rumore gaussiano additivo con un limite sulla potenza di picco non è superiore a capacità informativa lo stesso canale con la stessa limitazione di potenza media.
Aspettativa matematica per una distribuzione uniforme simmetrica

Quadrato medio per distribuzione simmetrica uniforme

Varianza per distribuzione uniforme simmetrica

Allo stesso tempo, per un processo uniformemente distribuito.
Entropia differenziale di un segnale a distribuzione uniforme
.
La differenza tra le entropie differenziali di un processo normale e uno uniformemente distribuito non dipende dal valore della dispersione
= 0,3 bit/conteggio
Pertanto, il throughput e la capacità del canale di comunicazione per un processo con una distribuzione normale è maggiore rispetto a uno uniforme.
Determinare la capacità (volume) del canale di comunicazione
V k = T k C k = 10×60×2322 = 1,3932 Mbit.
Determina la quantità di informazioni che possono essere trasmesse in 10 minuti del canale
10× 60× 2322=1.3932MB.
Compiti

Utilizzando le risorse Internet, trova le risposte alle domande:

Esercizio 1

1. Qual è il processo di trasferimento delle informazioni?

Trasferimento di informazioni- il processo fisico mediante il quale le informazioni vengono trasferite nello spazio. Hanno registrato le informazioni su un disco e le hanno trasferite in un'altra stanza. Questo processo caratterizzato dalla presenza dei seguenti componenti:


2. Schema generale di trasferimento delle informazioni

3. Elenca i canali di comunicazione che conosci

Collegamento(Inglese) canale, linea dati) - un sistema di mezzi tecnici e un ambiente di propagazione del segnale per la trasmissione di messaggi (non solo dati) da una fonte a un destinatario (e viceversa). Un canale di comunicazione inteso in senso stretto ( percorso comunicativo) rappresenta solo il mezzo di propagazione fisico, come una linea di comunicazione fisica.

In base al tipo di mezzo distributivo, i canali di comunicazione si suddividono in:

4. Cosa sono le telecomunicazioni e le telecomunicazioni informatiche?

Telecomunicazioni(Greco tele - lontano, e lat. communicatio - comunicazione) è la trasmissione e la ricezione di qualsiasi informazione (suono, immagine, dati, testo) a distanza attraverso vari sistemi elettromagnetici (canali via cavo e in fibra ottica, canali radio e altri canali cablati e connessioni di canali wireless).

rete di telecomunicazioni
- un sistema di mezzi tecnici attraverso i quali vengono effettuate le telecomunicazioni.

Le reti di telecomunicazione includono:
1. Reti informatiche (per trasmissione dati)
2. Reti telefoniche (trasmissione di informazioni vocali)
3. Reti radiofoniche (trasmissione di informazioni vocali - servizi di trasmissione)
4. Reti televisive (trasmissione di voce e immagini - servizi di trasmissione)

Telecomunicazioni informatiche - telecomunicazioni, i cui dispositivi terminali sono computer.

Il trasferimento di informazioni da computer a computer è chiamato comunicazione sincrona, e attraverso un computer intermedio, che consente di accumulare messaggi e trasferirli a computer personale come richiesto dall'utente, - asincrono.

Le telecomunicazioni informatiche stanno cominciando a mettere radici nell'istruzione. Nell'istruzione superiore, vengono utilizzati per il coordinamento della ricerca scientifica, il rapido scambio di informazioni tra i partecipanti al progetto, l'apprendimento a distanza e le consultazioni. Nel sistema dell'istruzione scolastica - aumentare l'efficacia delle attività indipendenti degli studenti relative a vari tipi di lavoro creativo, comprese le attività educative, basate sull'uso diffuso di metodi di ricerca, sul libero accesso ai database e sullo scambio di informazioni con i partner sia in patria e all'estero.

5. Qual è la larghezza di banda del canale di trasmissione delle informazioni?
Larghezza di banda- caratteristica metrica, che mostra il rapporto tra il numero massimo di unità di passaggio (informazioni, oggetti, volume) per unità di tempo attraverso un canale, sistema, nodo.
In informatica, la definizione di larghezza di banda viene solitamente applicata a un canale di comunicazione ed è definita il numero massimo informazioni trasmesse/ricevute per unità di tempo.
La larghezza di banda è uno dei fattori più importanti dal punto di vista dell'utente. È stimato dalla quantità di dati che la rete, nel limite, può trasferire per unità di tempo da un dispositivo ad essa connesso a un altro.

La velocità del trasferimento delle informazioni dipende in gran parte dalla velocità della sua creazione (prestazioni della sorgente), dai metodi di codifica e decodifica. La massima velocità di trasferimento delle informazioni possibile in un dato canale è chiamata larghezza di banda. La capacità del canale, per definizione, è la velocità di trasferimento delle informazioni quando si utilizza la sorgente, il codificatore e il decodificatore "migliori" (ottimali) per un dato canale, quindi caratterizza solo il canale.

>>Informatica: Informatica Grado 9. Addendum al capitolo 1

Addendum al capitolo 1

1.1. Trasferimento di informazioni tramite canali di comunicazione tecnica

Gli argomenti principali del paragrafo:

♦ schema di K. Shannon;
♦ codifica e decodifica delle informazioni;
♦ rumore e protezione dal rumore. Teoria dei codici di K. Shannon.

Lo schema di K. Shannon

Lo scienziato americano, uno dei fondatori della teoria dell'informazione, Claude Shannon ha proposto uno schema del processo trasmissione di informazioni attraverso i canali di comunicazione tecnica, mostrati in Fig. 1.3.

Il funzionamento di un tale schema può essere spiegato dal processo familiare di parlare al telefono. La fonte dell'informazione è la persona che parla. Un codificatore è un microfono portatile che converte le onde sonore (parole) in segnali elettrici. Il canale di comunicazione è la rete telefonica (fili, interruttori di nodi telefonici attraverso i quali passa il segnale). Il dispositivo di decodifica è un microtelefono (cuffia) della persona che ascolta, il destinatario delle informazioni. Qui il segnale elettrico in ingresso viene convertito in suono.

La comunicazione in cui la trasmissione avviene sotto forma di un segnale elettrico continuo è chiamata comunicazione analogica.

Informazioni di codifica e decodifica

La codifica è intesa come qualsiasi trasformazione dell'informazione proveniente da una fonte in una forma adatta alla sua trasmissione attraverso un canale di comunicazione.

All'alba dell'era della radio, veniva utilizzato il codice Morse. Il testo è stato convertito in una sequenza di punti e trattini (segnali brevi e lunghi) e trasmesso. Una persona che ha ricevuto una tale trasmissione a orecchio avrebbe dovuto essere in grado di decodificare il codice in testo. Anche prima, il codice Morse veniva utilizzato nelle comunicazioni telegrafiche. La trasmissione di informazioni utilizzando il codice Morse è un esempio di comunicazione discreta.

Allo stato attuale, la comunicazione digitale è ampiamente utilizzata, quando trasmessa informazione codificato in forma binaria (0 e 1 sono cifre binarie) e poi decodificato in testo, immagine, suono. Anche la comunicazione digitale, ovviamente, è discreta.

Protezione dal rumore e dal rumore. Teoria dei codici di K. Shannon

Il termine "rumore" si riferisce a vari tipi di interferenza che distorcono il segnale trasmesso e portano alla perdita di informazioni. Tale interferenza si verifica principalmente per motivi tecnici: scarsa qualità delle linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. Spesso, quando si parla al telefono, si sentono rumori, crepitii, che rendono difficile la comprensione dell'interlocutore, oppure la conversazione di altre persone si sovrappone alla nostra conversazione. In tali casi è necessaria la protezione dal rumore.

Innanzitutto, vengono utilizzati metodi tecnici per proteggere i canali di comunicazione dagli effetti del rumore. Tali metodi sono molto diversi, a volte semplici, a volte molto complessi. Ad esempio, utilizzando un cavo schermato anziché un filo nudo; l'uso di vari tipi di filtri che separano il segnale utile dal rumore, ecc.

Claude Shannon ha sviluppato una speciale teoria della codifica che fornisce metodi per gestire il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione deve essere ridondante. A causa di ciò, la perdita di una parte delle informazioni durante la trasmissione può essere compensata. Ad esempio, se sei difficile da sentire quando parli al telefono, ripetendo ogni parola due volte, hai maggiori possibilità che l'interlocutore ti capisca correttamente.

Tuttavia, non è possibile rendere la ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione. La teoria della codifica di K. Shannon ti consente solo di ottenere un tale codice che sarà ottimale. In questo caso, la ridondanza delle informazioni trasmesse sarà la minima possibile e l'affidabilità delle informazioni ricevute sarà la massima.

Nei moderni sistemi di comunicazione digitale, la seguente tecnica viene spesso utilizzata per combattere la perdita di informazioni durante la trasmissione. L'intero messaggio è diviso in porzioni: pacchetti. Per ogni pacco viene calcolato un assegno somma(somma di cifre binarie) che viene trasmesso con questo pacchetto. Nel luogo di ricezione, il checksum del pacchetto ricevuto viene ricalcolato e, se non corrisponde all'originale, viene ripetuta la trasmissione di questo pacchetto. Ciò accade fino a quando il checksum iniziale e quello finale non corrispondono.

Brevemente sul principale

Qualsiasi sistema di trasmissione di informazioni tecniche è costituito da una sorgente, un ricevitore, dispositivi di codifica e decodifica e un canale di comunicazione.

La codifica è intesa come la trasformazione dell'informazione proveniente da una fonte in una forma adatta alla sua trasmissione attraverso un canale di comunicazione. La decodifica è la trasformazione inversa.

Il rumore è un'interferenza che porta alla perdita di informazioni.

Nella teoria dei codici, sono stati sviluppati metodi per rappresentare le informazioni trasmesse al fine di ridurne la perdita sotto l'influenza del rumore.

Domande e compiti

1. Nomina gli elementi principali dello schema di trasferimento delle informazioni proposto da K. Shannon.
2. Cos'è la codifica e la decodifica durante la trasmissione delle informazioni?
3. Cos'è il rumore? Quali sono le sue implicazioni per la trasmissione delle informazioni?
4. Quali sono i modi per affrontare il rumore?

1.2. Zippare e decomprimere i file

Gli argomenti principali del paragrafo:

♦ problema di compressione dei dati;
♦ algoritmo di compressione che utilizza un codice a lunghezza variabile;
♦ algoritmo di compressione mediante fattore di ripetizione;
♦ programmi di archiviazione.

Problema di compressione dei dati

Sai già che con l'aiuto di Internet globale, l'utente ha accesso a enormi risorse di informazioni. In rete puoi trovare un libro raro, un saggio su quasi tutti gli argomenti, fotografie e musica, un gioco per computer e molto altro. Quando si trasferiscono questi dati sulla rete, possono sorgere problemi a causa del suo grande volume. La capacità dei canali di comunicazione è ancora piuttosto limitata. Pertanto, il tempo di trasmissione potrebbe essere troppo lungo e ciò è associato a costi finanziari aggiuntivi. Inoltre, per file di grandi dimensioni, lo spazio libero su disco potrebbe non essere sufficiente.

La soluzione al problema è la compressione dei dati, che riduce la quantità di dati pur conservando il contenuto codificato in essi. I programmi che eseguono tale compressione sono chiamati archiviatori. I primi archivisti apparvero a metà degli anni '80 del XX secolo. Lo scopo principale del loro utilizzo era risparmiare spazio sui dischi, il cui volume di informazioni a quel tempo era molto inferiore al volume dei dischi moderni.

La compressione dei dati (archiviazione dei file) avviene secondo speciali algoritmi. Questi algoritmi utilizzano molto spesso due idee fondamentalmente diverse.

Algoritmo di compressione che utilizza codice a lunghezza variabile

Prima idea: usare codice a lunghezza variabile. I dati che vengono compressi sono divisi in parti in un modo speciale (stringhe di caratteri, "parole"). Si noti che un singolo carattere (codice ASCII) può anche essere una "parola". Per ogni "parola" viene trovata la frequenza di occorrenza: il rapporto tra il numero di ripetizioni di questa "parola" e il numero totale di "parole" nell'array di dati. L'idea dell'algoritmo di compressione delle informazioni è codificare le "parole" che si verificano più frequentemente con codici di lunghezza inferiore rispetto alle "parole" che si verificano raramente. Ciò può ridurre notevolmente le dimensioni del file.

Questo approccio è noto da molto tempo. Viene utilizzato nel codice Morse, in cui i caratteri sono codificati da varie sequenze di punti e trattini, con caratteri che si verificano più frequentemente con codici più brevi. Ad esempio, la lettera "A" comunemente usata è codificata come: -. Una rara lettera "Ж" è codificata: -. A differenza dei codici della stessa lunghezza, in questo caso c'è il problema di separare i codici delle lettere l'uno dall'altro. Nel codice Morse, questo problema viene risolto con l'aiuto di una "pausa" (spazio), che, di fatto, è il terzo carattere dell'alfabeto Morse, cioè l'alfabeto Morse non è di due, ma di tre caratteri.

Le informazioni nella memoria del computer vengono memorizzate utilizzando un alfabeto a due caratteri. Non esiste un carattere separatore speciale. Eppure, siamo riusciti a trovare un modo per comprimere i dati con una lunghezza variabile del codice "parola" che non richiede un carattere separatore. Tale algoritmo è chiamato algoritmo di D. Huffman (pubblicato per la prima volta nel 1952). Tutti gli archivi universali lavorano su algoritmi simili all'algoritmo di Huffman.

Algoritmo di compressione che utilizza il fattore di ripetizione

Seconda idea: utilizzare un fattore di ripetizione. Il significato dell'algoritmo basato su questa idea è il seguente: se una catena di gruppi di caratteri ripetuti si verifica in un array di dati compressi, viene sostituita da una coppia: il numero (coefficiente) di ripetizioni - un gruppo di caratteri. In questo caso, per lunghe catene ripetute, il guadagno di memoria durante la compressione può essere molto grande. Questo metodo è più efficace quando si impacchettano informazioni grafiche.

Programmi di archiviazione

I programmi di archiviazione creano file di archivio (archivi). Un archivio è un file che memorizza uno o più file in formato compresso. Per utilizzare i file archiviati, è necessario estrarli dall'archivio - decomprimerli. Tutto programmi gli archiviatori di solito forniscono le seguenti funzionalità:

Aggiunta di file all'archivio;
estrazione dei file dall'archivio;
eliminare i file dall'archivio;
visualizzare il contenuto dell'archivio.

Attualmente, gli archivi più popolari sono WinRar e WinZip. WinRar ha più funzionalità di WinZip. In particolare, consente di creare un archivio multivolume (questo è comodo se l'archivio deve essere copiato su un floppy disk e la sua dimensione supera 1,44 MB), nonché la possibilità di creare un archivio autoestraente (in questo caso, l'archiviatore stesso non è necessario per estrarre i dati dall'archivio) .

Diamo un esempio dei vantaggi dell'utilizzo degli archivi durante il trasferimento dei dati su una rete. La dimensione del documento di testo contenente il paragrafo che stai leggendo è di 31 KB. Se questo documento viene archiviato utilizzando WinRar, la dimensione del file di archivio sarà di soli 6 KB. Come si suol dire, il vantaggio è ovvio.

Usare i programmi di archiviazione è molto semplice. Per creare un archivio, devi prima selezionare i file che vuoi includere in esso, quindi impostare i parametri necessari (metodo di archiviazione, formato dell'archivio, dimensione del volume se l'archivio è multivolume) e infine eseguire il comando CREATE ARCHIVE. Allo stesso modo, si verifica l'azione inversa: estrarre i file dall'archivio (decomprimere l'archivio). Innanzitutto, è necessario selezionare i file da estrarre dall'archivio, in secondo luogo, determinare dove posizionare questi file e, infine, eseguire il comando EXTRACT FILES FROM THE ARCHIVE. Imparerai di più sul lavoro dei programmi di archiviazione nelle lezioni pratiche.

Brevemente sul principale

Le informazioni vengono compresse con l'ausilio di speciali programmi di archiviazione.

I due metodi più comunemente usati negli algoritmi di compressione sono l'uso di un codice di lunghezza variabile e l'uso di un fattore di ripetizione del gruppo di caratteri.

Domande e compiti

1. Qual è la differenza tra codici a lunghezza costante e variabile?
2. Quali sono le capacità dei programmi di archiviazione?
3. Qual è il motivo ampia applicazione software di archiviazione?
4. Conosci altri archivisti diversi da quelli elencati in questo paragrafo?

I. Semakin, L. Zalogova, S. Rusakov, L. Shestakova, Informatica, grado 9
Inviato dai lettori da siti Internet

Apri lezione di informatica, piano scolastico, abstract di informatica, tutto per lo studente per fare i compiti, scarica informatica grado 9

Contenuto della lezione riassunto della lezione cornice di supporto lezione presentazione metodi accelerativi tecnologie interattive Pratica compiti ed esercizi laboratori di autoesame, corsi di formazione, casi, ricerche compiti a casa domande di discussione domande retoriche degli studenti Illustrazioni audio, videoclip e multimedia fotografie, immagini grafiche, tabelle, schemi umoristici, aneddoti, barzellette, parabole a fumetti, detti, cruciverba, citazioni Componenti aggiuntivi abstract articoli chip per curiosi cheat sheet libri di testo glossario di termini di base e aggiuntivo altro Migliorare libri di testo e lezionicorreggere errori nel libro di testo aggiornamento di un frammento nel libro di testo elementi di innovazione nella lezione sostituzione di conoscenze obsolete con nuove Solo per insegnanti lezioni perfette piano del calendario anno raccomandazioni metodologiche del programma di discussione Lezioni integrate

Se hai correzioni o suggerimenti per questa lezione,

Il trasferimento di informazioni avviene dalla fonte al destinatario (ricevitore) di informazioni. fonte l'informazione può essere qualsiasi cosa: qualsiasi oggetto o fenomeno di natura vivente o inanimata. Il processo di trasferimento delle informazioni avviene in un ambiente materiale che separa la fonte e il destinatario delle informazioni, che viene chiamato canale trasferimento di informazioni. Le informazioni vengono trasmesse attraverso un canale sotto forma di una certa sequenza di segnali, simboli, segni, che vengono chiamati Messaggio. Destinatario l'informazione è un oggetto che riceve un messaggio, a seguito del quale si verificano determinati cambiamenti nel suo stato. Tutto quanto sopra è mostrato schematicamente nella figura.

Trasferimento di informazioni

Una persona riceve informazioni da tutto ciò che lo circonda, attraverso i sensi: udito, vista, olfatto, tatto, gusto. Una persona riceve la maggior quantità di informazioni attraverso l'udito e la vista. I messaggi sonori sono percepiti dall'orecchio - segnali acustici in un mezzo continuo (il più delle volte nell'aria). La visione percepisce segnali luminosi che portano l'immagine degli oggetti.

Non tutti i messaggi sono informativi per una persona. Ad esempio, un messaggio in una lingua incomprensibile, sebbene trasmesso a una persona, non contiene informazioni per lui e non può causare cambiamenti adeguati nel suo stato.

Un canale informativo può essere di natura naturale (aria atmosferica attraverso la quale vengono trasmesse le onde sonore, luce solare riflessa dagli oggetti osservati) o essere creato artificialmente. In quest'ultimo caso si tratta di mezzi tecnici di comunicazione.

Sistemi di trasmissione di informazioni tecniche

Il primo mezzo tecnico per trasmettere informazioni a distanza fu il telegrafo, inventato nel 1837 dall'americano Samuel Morse. Nel 1876, l'americano A. Bell inventa il telefono. Sulla base della scoperta delle onde elettromagnetiche da parte del fisico tedesco Heinrich Hertz (1886), A.S. Popov in Russia nel 1895 e quasi contemporaneamente a lui nel 1896 G. Marconi in Italia, fu inventata la radio. La televisione e Internet sono apparse nel ventesimo secolo.

Tutti i metodi tecnici elencati di comunicazione delle informazioni si basano sulla trasmissione di un segnale fisico (elettrico o elettromagnetico) a distanza e sono soggetti a determinate leggi generali. Lo studio di queste leggi è teoria della comunicazione emerso negli anni '20. Apparato matematico della teoria della comunicazione - teoria matematica della comunicazione, sviluppato dallo scienziato americano Claude Shannon.

Claude Elwood Shannon (1916–2001), Stati Uniti

Claude Shannon ha proposto un modello per il processo di trasmissione delle informazioni attraverso canali di comunicazione tecnica, rappresentato da un diagramma.

Sistema di trasmissione delle informazioni tecniche

Per codifica si intende qui qualsiasi trasformazione dell'informazione proveniente da una fonte in una forma adatta alla sua trasmissione su un canale di comunicazione. Decodifica - trasformazione inversa della sequenza del segnale.

Il funzionamento di un tale schema può essere spiegato dal processo familiare di parlare al telefono. La fonte dell'informazione è la persona che parla. Un codificatore è un microfono portatile che converte le onde sonore (parole) in segnali elettrici. Il canale di comunicazione è la rete telefonica (fili, interruttori di nodi telefonici attraverso i quali passa il segnale). Il dispositivo di decodifica è un microtelefono (cuffia) della persona che ascolta, il destinatario delle informazioni. Qui il segnale elettrico in ingresso viene convertito in suono.

Moderno sistemi informatici trasmissione di informazioni - le reti di computer funzionano secondo lo stesso principio. Esiste un processo di codifica che converte il codice binario del computer in segnale fisico del tipo trasmesso sul canale di comunicazione. La decodifica è la trasformazione inversa del segnale trasmesso in codice informatico. Ad esempio, quando si utilizzano le linee telefoniche in reti di computer Le funzioni di codifica e decodifica sono svolte da un dispositivo chiamato modem.

Capacità del canale e velocità di trasferimento delle informazioni

Gli sviluppatori di sistemi di trasmissione di informazioni tecniche devono risolvere due compiti correlati: come garantire velocità massima trasmissione di informazioni e come ridurre la perdita di informazioni durante la trasmissione. Claude Shannon è stato il primo scienziato che ha affrontato la soluzione di questi problemi e ha creato una nuova scienza per quel tempo - teoria dell'informazione.

K.Shannon ha determinato il metodo per misurare la quantità di informazioni trasmesse sui canali di comunicazione. Hanno introdotto il concetto Canale di banda,come massima velocità di trasferimento delle informazioni possibile. Questa velocità è misurata in bit al secondo (così come in kilobit al secondo, megabit al secondo).

Il throughput di un canale di comunicazione dipende dal suo realizzazione tecnica. Ad esempio, le reti informatiche utilizzano i seguenti mezzi di comunicazione:

linee telefoniche,

Collegamento cavo elettrico,

cablaggio in fibra ottica,

Comunicazione radiofonica.

Throughput delle linee telefoniche: decine, centinaia di Kbps; il throughput delle linee in fibra ottica e delle linee di comunicazione radio è misurato in decine e centinaia di Mbps.

Rumore, protezione dal rumore

Il termine "rumore" si riferisce a vari tipi di interferenza che distorcono il segnale trasmesso e portano alla perdita di informazioni. Tale interferenza si verifica principalmente per motivi tecnici: scarsa qualità delle linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. A volte, mentre parliamo al telefono, sentiamo rumori, crepitii, che rendono difficile la comprensione dell'interlocutore, oppure la conversazione di persone completamente diverse si sovrappone alla nostra conversazione.

La presenza di rumore porta alla perdita delle informazioni trasmesse. In tali casi è necessaria la protezione dal rumore.

Innanzitutto, vengono utilizzati metodi tecnici per proteggere i canali di comunicazione dagli effetti del rumore. Ad esempio, utilizzando un cavo schermato anziché un filo nudo; l'uso di vari tipi di filtri che separano il segnale utile dal rumore, ecc.

Claude Shannon si è sviluppato teoria dei codici, che fornisce metodi per gestire il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione deve essere ridondante. A causa di ciò, la perdita di una parte delle informazioni durante la trasmissione può essere compensata. Ad esempio, se sei difficile da sentire quando parli al telefono, ripetendo ogni parola due volte, hai maggiori possibilità che l'interlocutore ti capisca correttamente.

Tuttavia, non è possibile rendere la ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione. La teoria dei codici ti consente di ottenere un codice che sarà ottimale. In questo caso, la ridondanza delle informazioni trasmesse sarà la minima possibile e l'affidabilità delle informazioni ricevute sarà la massima.

Nei moderni sistemi di comunicazione digitale, la seguente tecnica viene spesso utilizzata per combattere la perdita di informazioni durante la trasmissione. L'intero messaggio è diviso in parti - Pacchetti. Per ogni pacchetto è calcolato assegno somma(somma di cifre binarie) che viene trasmesso con questo pacchetto. Nel luogo di ricezione viene ricalcolato il checksum del pacchetto ricevuto e, se non corrisponde alla somma originaria, viene ripetuta la trasmissione di questo pacchetto. Ciò continuerà fino a quando il checksum iniziale e quello finale non corrispondono.

Considerando il trasferimento delle informazioni nei corsi propedeutici e di informatica di base, prima di tutto, questo argomento dovrebbe essere discusso dalla posizione di una persona come destinatario di informazioni. La capacità di ricevere informazioni dal mondo circostante è la condizione più importante per l'esistenza umana. Gli organi di senso umani sono i canali informativi del corpo umano, effettuando la connessione di una persona con l'ambiente esterno. Su questa base le informazioni vengono suddivise in visive, uditive, olfattive, tattili e gustative. La logica per il fatto che il gusto, l'olfatto e il tatto portano informazioni a una persona è la seguente: ricordiamo gli odori di oggetti familiari, il gusto del cibo familiare, riconosciamo oggetti familiari al tatto. E il contenuto della nostra memoria sono informazioni memorizzate.

Agli studenti dovrebbe essere detto che nel mondo animale il ruolo informativo dei sensi è diverso da quello umano. L'olfatto svolge un'importante funzione informativa per gli animali. L'accresciuto senso dell'olfatto dei cani guida viene utilizzato dalle forze dell'ordine per cercare criminali, rilevare droghe, ecc. La percezione visiva e sonora degli animali differisce da quella degli esseri umani. Ad esempio, è noto che i pipistrelli sentono gli ultrasuoni e che i gatti vedono al buio (dal punto di vista umano).

Nell'ambito di questo argomento, gli studenti dovrebbero essere in grado di guidare esempi concreti il processo di trasferimento delle informazioni, per determinare per questi esempi la fonte, il destinatario delle informazioni, i canali di trasmissione delle informazioni utilizzati.

Quando si studia informatica al liceo, gli studenti dovrebbero essere introdotti alle disposizioni di base della teoria tecnica della comunicazione: i concetti di codifica, decodifica, velocità di trasferimento delle informazioni, capacità del canale, rumore, protezione dal rumore. Questi problemi possono essere considerati sotto l'argomento " Mezzi tecnici reti di computer".