Transferencia de información a través de canales técnicos de comunicación. Resumen de la lección sobre el tema “Transferencia de información. Representación entera

| 8 clases | Planificación de lecciones para el año escolar. | Trabajar en la red local de una clase de informática en el modo de intercambio de archivos

Lección 2
Trabajar en la red local de una clase de informática en el modo de intercambio de archivos

Transferencia de información a través de canales técnicos de comunicación.

Transferencia de información a través de canales técnicos de comunicación.

El esquema de Shannon

Un científico estadounidense, uno de los fundadores de la teoría de la información, Claude Shannon, propuso un diagrama del proceso de transmisión de información a través de canales técnicos de comunicación (Fig. 1.3).

Arroz. 1.3. Esquema de un sistema de transmisión de información técnica.

El funcionamiento de tal esquema puede explicarse por el proceso familiar de hablar por teléfono. fuente de informacion- persona que habla. codificador Un micrófono de mano que convierte las ondas de sonido (habla) en señales eléctricas. Enlace - red telefonica(cables, interruptores de nodos telefónicos a través de los cuales pasa la señal). Descifrador- un auricular (auricular) de una persona que escucha - un receptor de información. Aquí la señal eléctrica entrante se convierte en sonido.

Aquí, la información se transmite en forma de una señal eléctrica continua. eso comunicación analógica.

Codificar y decodificar información

Por debajo codificación se entiende cualquier transformación de información proveniente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación.

En los albores de la era de la comunicación por radio, se utilizó el código alfabético morse. El texto se convirtió en una secuencia de puntos y rayas (señales cortas y largas) y se transmitió. Una persona que recibió tal transmisión de oído debería haber sido capaz de decodificar el código en texto. Incluso antes, el código Morse se usaba en las comunicaciones telegráficas. La transmisión de información utilizando el código Morse es un ejemplo de comunicación discreta.

Actualmente, la comunicación digital es ampliamente utilizada, cuando la información transmitida se codifica en forma binaria (0 y 1 son dígitos binarios) y luego se decodifica en texto, imagen y sonido. La comunicación digital, obviamente, también es discreta.

Protección contra el ruido y el ruido. Teoría de la codificación de Shannon

La información se transmite a través de canales de comunicación por medio de señales de diversa naturaleza física: eléctrico, electromagnético, luminoso, acústico. El contenido de información de una señal consiste en el valor o en el cambio de valor de su cantidad física (intensidad de corriente, brillo de la luz, etc.). El término "ruido" llamados varios tipos de interferencia que distorsionan la señal transmitida y conducen a la pérdida de información. Dicha interferencia ocurre principalmente debido a razones técnicas: mala calidad de las líneas de comunicación, inseguridad entre sí de varios flujos de información transmitidos por los mismos canales. A menudo, cuando hablamos por teléfono, escuchamos ruidos, crujidos, que dificultan la comprensión del interlocutor, o la conversación de otras personas se superpone a nuestra conversación. En tales casos es necesaria la protección contra el ruido.

En primer lugar aplicar formas técnicas protección de los canales de comunicación de la exposición al ruido. Dichos métodos son muy diferentes, a veces simples, a veces muy complejos. Por ejemplo, usar cable blindado en lugar de cable desnudo; el uso de varios tipos de filtros que separan la señal útil del ruido, etc.

K. Shannon desarrolló una teoría de codificación especial, que proporciona métodos para tratar el ruido. Una de las ideas importantes de esta teoría es que el código transmitido por la línea de comunicación debe ser redundante. Debido a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Por ejemplo, si es difícil escucharlo cuando habla por teléfono, al repetir cada palabra dos veces, tiene más posibilidades de que el interlocutor lo entienda correctamente.

Sin embargo, no puedes hacer redundancia demasiado grande. Esto conducirá a retrasos y mayores costos de comunicación. La teoría de codificación de Shannon simplemente le permite obtener un código que sea óptimo. En este caso, la redundancia de la información transmitida será la mínima posible y la fiabilidad de la información recibida será la máxima.

En los sistemas de comunicación digital modernos, la siguiente técnica se usa a menudo para combatir la pérdida de información durante la transmisión. Todo el mensaje se divide en porciones - paquetes. Para cada paquete, se calcula una suma de comprobación (la suma de dígitos binarios), que se transmite junto con este paquete. En el lugar de recepción, se vuelve a calcular la suma de verificación del paquete recibido y, si no coincide con el original, se repite la transmisión de este paquete. Esto sucede hasta que las sumas de verificación inicial y final coinciden.

Brevemente sobre los principales

Cualquier sistema de transmisión de información técnica consiste en una fuente, un receptor, dispositivos de codificación y decodificación, y un canal de comunicación.

Por debajo codificación se refiere a la transformación de la información procedente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación. Descodificación es la transformación inversa.

Ruido son interferencias que conducen a la pérdida de información.

En la teoría de la codificación desarrollada métodos representación de la información transmitida para reducir su pérdida bajo la influencia del ruido.

preguntas y tareas

1. Cuáles son los principales elementos del esquema de transferencia de información propuesto por K. Shannon.

2. ¿Qué es codificar y decodificar en la transmisión de información?

3. ¿Qué es el ruido? ¿Cuáles son sus implicaciones para la transmisión de información?

4. ¿Cuáles son las formas de lidiar con el ruido?

EC CER: Parte 2, conclusión, adición al capítulo 1, § 1.1. COR No. 1.

Esquema de transferencia de información. Canal de transferencia de información. Tasa de transferencia de información.

Hay tres tipos de procesos de información: almacenamiento, transmisión, procesamiento.

Almacenamiento de datos:

· Portadores de información.

tipos de memoria

· Almacenamiento de información.

· Propiedades básicas de los almacenamientos de información.

Asociado con el almacenamiento de información. los siguientes conceptos: medio de almacenamiento (memoria), memoria interna, memoria externa, almacenamiento de información.

Un medio de almacenamiento es un medio físico que almacena directamente información. La memoria humana puede llamarse RAM. El conocimiento aprendido es reproducido por una persona al instante. También podemos llamar a nuestra propia memoria memoria interna porque su portador, el cerebro, está dentro de nosotros.

Todos los demás tipos de portadores de información pueden llamarse externos (en relación con una persona): madera, papiro, papel, etc. El almacenamiento de información es información organizada de cierta manera en medios externos, destinada al almacenamiento a largo plazo y uso permanente (por ejemplo, archivos de documentos, bibliotecas, archivadores). La principal unidad de información del repositorio es un determinado documento físico: un cuestionario, un libro, etc. La organización del repositorio implica la presencia de una determinada estructura, es decir, orden, clasificación de los documentos almacenados para la comodidad de trabajar con ellos. Las principales propiedades del almacenamiento de información: la cantidad de información almacenada, la confiabilidad del almacenamiento, el tiempo de acceso (es decir, el tiempo de búsqueda Información necesaria), disponibilidad de protección de la información.

La información almacenada en los dispositivos de memoria de la computadora se llama datos. Almacenes de datos organizados en dispositivos memoria externa Las computadoras se llaman bases de datos y bancos de datos.

Procesamiento de datos:

· El esquema general del proceso de tratamiento de la información.

· Declaración de la tarea de procesamiento.

· Ejecutor de la tramitación.

· Algoritmo de procesamiento.

· Tareas típicas de procesamiento de información.

Esquema de procesamiento de información:

Información inicial - ejecutante del tratamiento - información final.

En el proceso de procesamiento de información, se resuelve algún problema de información, que puede establecerse preliminarmente en la forma tradicional: se proporciona un determinado conjunto de datos iniciales, se requiere para obtener algunos resultados. El mismo proceso de transición de los datos de origen al resultado es el proceso de procesamiento. El objeto o sujeto que realiza el procesamiento se denomina ejecutante del procesamiento.

Para realizar con éxito el procesamiento de la información, el ejecutante (persona o dispositivo) debe conocer el algoritmo de procesamiento, es decir, secuencia de pasos a seguir para lograr el resultado deseado.

Hay dos tipos de procesamiento de la información. El primer tipo de procesamiento: procesamiento asociado a la obtención de nueva información, nuevo contenido de conocimiento (resolución de problemas matemáticos, análisis de la situación, etc.). El segundo tipo de procesamiento: procesamiento asociado con un cambio en la forma, pero sin cambiar el contenido (por ejemplo, traducir un texto de un idioma a otro).

Un tipo importante de procesamiento de información es la codificación: la transformación de información en una forma simbólica que sea conveniente para su almacenamiento, transmisión y procesamiento. La codificación se usa activamente en medios técnicos para trabajar con información (telégrafo, radio, computadoras). Otro tipo de procesamiento de la información es la estructuración de datos (introducir cierto orden en el almacenamiento de información, clasificación, catalogación de datos).

Otro tipo de procesamiento de información es la búsqueda en algún almacén de información de los datos necesarios que satisfagan ciertas condiciones de búsqueda (solicitud). El algoritmo de búsqueda depende de la forma en que se organiza la información.

Transferencia de información:

· Fuente y receptor de la información.

· Canales de información.

El papel de los órganos de los sentidos en el proceso de percepción humana de la información.

· Estructura de los sistemas técnicos de comunicación.

· Qué es codificar y decodificar.

El concepto de ruido Técnicas de protección contra el ruido.

· Tasa de transferencia de información y capacidad del canal.

Esquema de transferencia de información:

Fuente de información - canal de información - receptor de información.

La información se presenta y transmite en forma de una secuencia de señales, símbolos. Desde la fuente hasta el receptor, el mensaje se transmite a través de algún medio material. Si se utilizan medios técnicos de comunicación en el proceso de transmisión, se denominan canales de transmisión de información (canales de información). Estos incluyen teléfono, radio, TV. Los órganos de los sentidos humanos juegan el papel de canales de información biológica.

El proceso de transmisión de información a través de canales de comunicación técnica procede de acuerdo con el siguiente esquema (según Shannon):

El término "ruido" se refiere a varios tipos de interferencia que distorsionan la señal transmitida y conducen a la pérdida de información. Tales interferencias, en primer lugar, surgen por razones técnicas: mala calidad de las líneas de comunicación, inseguridad entre sí de varios flujos de información transmitidos por los mismos canales. Se utiliza para la protección contra el ruido. diferentes caminos, por ejemplo, el uso de varios tipos de filtros que separan la señal útil del ruido.

Claude Shannon desarrolló una teoría de codificación especial que proporciona métodos para lidiar con el ruido. Una de las ideas importantes de esta teoría es que el código transmitido por la línea de comunicación debe ser redundante. Debido a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Sin embargo, no puede hacer que la redundancia sea demasiado grande. Esto conducirá a retrasos y mayores costos de comunicación.

Al discutir el tema de medir la velocidad de transferencia de información, se puede usar una analogía. Un análogo es el proceso de bombear agua a través de tuberías de agua. Aquí, las tuberías son el canal para la transmisión de agua. La intensidad (velocidad) de este proceso se caracteriza por el consumo de agua, es decir, el número de litros bombeados por unidad de tiempo. En el proceso de transmisión de información, los canales son líneas de comunicación técnica. Por analogía con una tubería de agua, podemos hablar del flujo de información que se transmite a través de los canales. La tasa de transferencia de información es el volumen de información de un mensaje transmitido por unidad de tiempo. Por tanto, las unidades de medida de la velocidad del flujo de información: bit/s, bytes/s, etc. canal de transmisión del proceso de información

Otro concepto, el ancho de banda de los canales de información, también se puede explicar utilizando la analogía de la "plomería". Puede aumentar el flujo de agua a través de las tuberías aumentando la presión. Pero este camino no es interminable. Si se aplica demasiada presión, la tubería puede explotar. Por lo tanto, el caudal máximo de agua, que se puede llamar la capacidad del suministro de agua. Las líneas de comunicación de datos técnicos también tienen un límite de velocidad de datos similar. Las razones de esto también son físicas.

1. Clasificación y características del canal de comunicación
Enlace es un conjunto de medios destinados a la transmisión de señales (mensajes).
Para analizar los procesos de información en un canal de comunicación, puede usar su esquema generalizado que se muestra en la fig. 1.

AI
LS
PAG
Pi
PAG

En la fig. 1 adoptó las siguientes designaciones: X, Y, Z, W- señales, mensajes ; F- obstáculo; LS- línea de comunicación; IA, IP– fuente y receptor de información; PAG– convertidores (codificación, modulación, decodificación, demodulación).
Existen varios tipos de canales que se pueden clasificar según varios criterios:
1. Por tipo de líneas de comunicación: cableado; cable; fibra óptica;
líneas eléctricas; canales de radio, etc
2. Por la naturaleza de las señales: continuo; discreto; discreto-continuo (las señales en la entrada del sistema son discretas, y en la salida son continuas, y viceversa).
3. Para inmunidad al ruido: canales sin interferencias; con interferencia
Los canales de comunicación se caracterizan por:
1. Capacidad del canal definido como el producto del tiempo de uso del canal t a, el ancho del espectro de frecuencias transmitidas por el canal F a y rango dinámico D a. , que caracteriza la capacidad del canal para transmitir diferentes niveles de señales

V a = T a F a D a.(1)
La condición para hacer coincidir la señal con el canal:
V c £ V k ; T c £ T k ; F c £ F k ; V c £ V k ; re c £ re k .
2.Tasa de transferencia de información - la cantidad media de información transmitida por unidad de tiempo.
3.
4. Redundancia - garantiza la fiabilidad de la información transmitida ( R= 0¸1).
Una de las tareas de la teoría de la información es determinar la dependencia de la tasa de transferencia de información y la capacidad del canal de comunicación de los parámetros del canal y las características de las señales y la interferencia.
Un canal de comunicación puede compararse en sentido figurado con las carreteras. Carreteras estrechas: poca capacidad, pero económicas. Carreteras anchas: buena capacidad de tráfico, pero costosas. El rendimiento está determinado por el cuello de botella.
La tasa de transferencia de datos depende en gran medida del medio de transmisión en los canales de comunicación, que son varios tipos de líneas de comunicación.
Alámbrico:
1. cableado– par trenzado (que suprime parcialmente la radiación electromagnética de otras fuentes). Velocidad de transmisión de hasta 1 Mbps. Utilizado en redes telefónicas y para transmisión de datos.
2. Cable coaxial. Tasa de transferencia 10-100 Mbps - utilizado en redes locales, televisión por cable etc.
3. Fibra óptica. Tasa de transferencia 1 Gbps.
En los entornos 1-3, la atenuación en dB es lineal con la distancia, es decir, la potencia cae exponencialmente. Por lo tanto, después de cierta distancia, es necesario instalar regeneradores (amplificadores).
Radioenlaces:
1. Canal de radio. Tasa de transferencia 100–400 Kbps. Utiliza frecuencias de radio de hasta 1000 MHz. Hasta 30 MHz debido a la reflexión de la ionosfera, es posible la propagación de ondas electromagnéticas más allá de la línea de visión. Pero este rango es muy ruidoso (por ejemplo, por radioaficionados). De 30 a 1000 MHz: la ionosfera es transparente y se requiere línea de visión. Se instalan antenas en altura (a veces se instalan regeneradores). Utilizado en radio y televisión.
2. líneas de microondas. Velocidades de transferencia de hasta 1 Gbps. Utilice frecuencias de radio por encima de 1000 MHz. Esto requiere línea de visión y antenas parabólicas altamente direccionales. La distancia entre los regeneradores es de 10 a 200 km. Se utiliza para telefonía, televisión y transmisión de datos.
3. Conexión satelital. Se utilizan frecuencias de microondas y el satélite sirve como regenerador (y para muchas estaciones). Las características son las mismas que para las líneas de microondas.
2. Ancho de banda de un canal de comunicación discreto
Un canal discreto es un conjunto de medios diseñados para transmitir señales discretas.
Capacidad del canal de comunicación - la tasa de transferencia de información más alta teóricamente alcanzable, siempre que el error no exceda un valor dado. Tasa de transferencia de información - la cantidad media de información transmitida por unidad de tiempo. Definamos expresiones para calcular la tasa de transferencia de información y el rendimiento de un canal de comunicación discreto.
Durante la transmisión de cada símbolo, en promedio, la cantidad de información pasa a través del canal de comunicación, que está determinada por la fórmula
Yo (Y, X) = Yo (X, Y) = H(X) - H (X/Y) = H(Y) - H (Y/X), (2)
donde: Yo (Y, X) - información mutua, es decir, la cantidad de información contenida en Y relativamente X;H(X) es la entropía de la fuente del mensaje; H (X/Y)– entropía condicional, que determina la pérdida de información por símbolo asociada a la presencia de ruido y distorsión.
Al enviar un mensaje XT duración T, que consiste en norte símbolos elementales, la cantidad promedio de información transmitida, teniendo en cuenta la simetría de la cantidad mutua de información, es:
yo(Y T, X T) = H(X T) – H(X T /Y T) = H(Y T) – H(Y T /X T) = norte . (4)
La tasa de transferencia de información depende de las propiedades estadísticas de la fuente, el método de codificación y las propiedades del canal.
Ancho de banda de un canal de comunicación discreto
. (5)
El valor máximo posible, es decir, el máximo del funcional se busca en todo el conjunto de funciones de distribución de probabilidad p (X).
el rendimiento depende de especificaciones canal (velocidad del equipo, tipo de modulación, nivel de interferencia y distorsión, etc.). Las unidades de capacidad del canal son: , , , .
2.1 Canal de comunicación discreto sin interferencia
Si no hay interferencia en el canal de comunicación, entonces las señales de entrada y salida del canal están conectadas por una dependencia funcional inequívoca.
En este caso, la entropía condicional es igual a cero, y las entropías incondicionales de la fuente y el receptor son iguales, es decir la cantidad promedio de información en el símbolo recibido en relación con el transmitido es
Yo (X, Y) = H(X) = H(Y); H(X/Y) = 0.
Si XT- número de caracteres por tiempo T, entonces la tasa de transferencia de información para un canal de comunicación discreto sin interferencia es igual a
(6)
donde V = 1/ es la tasa de transmisión promedio de un símbolo.
Ancho de banda para un canal de comunicación discreto sin interferencias
(7)
Porque la máxima entropía corresponde a símbolos equiprobables, entonces el ancho de banda para distribución uniforme e independencia estadística de los símbolos transmitidos es igual a:
. (8)
Primer teorema de Shannon para un canal: Si el flujo de información generado por la fuente está lo suficientemente cerca del ancho de banda del canal de comunicación, es decir,
, donde es un valor arbitrariamente pequeño,
entonces siempre es posible encontrar un método de codificación que asegure la transmisión de todos los mensajes fuente, y la tasa de transferencia de información será muy cercana a la capacidad del canal.
El teorema no responde a la pregunta de cómo codificar.
Ejemplo 1 La fuente genera 3 mensajes con probabilidades:
p1 = 0,1; p2 = 0,2 y p3 = 0,7.
Los mensajes son independientes y se transmiten en un código binario uniforme ( metro = 2) con una duración de símbolo de 1 ms. Determine la tasa de transferencia de información a través de un canal de comunicación sin interferencia.
Decisión: La entropía de la fuente es

[bps].
Para transmitir 3 mensajes con un código uniforme, se requieren dos bits, mientras que la duración de la combinación de códigos es de 2t.
Tasa de señal promedio
V = 1/2 t = 500 .
Tasa de transferencia de información
C = vH = 500 × 1,16 = 580 [bps].
2.2 Canal de comunicación discreto con ruido
Consideraremos canales de comunicación discretos sin memoria.
Canal sin memoria Un canal se denomina canal en el que cada símbolo de señal transmitido se ve afectado por la interferencia, independientemente de las señales que se hayan transmitido previamente. Es decir, la interferencia no crea enlaces correlativos adicionales entre símbolos. El nombre "sin memoria" significa que durante la siguiente transmisión, el canal parece no recordar los resultados de las transmisiones anteriores.
En presencia de interferencia, la cantidad promedio de información en el símbolo del mensaje recibido – Y, en relación con el transmitido - X es igual a:
.
Para el carácter del mensaje XT duración T, que consiste en norte símbolos elementales cantidad media de información en el símbolo recibido del mensaje - YT en cuanto a lo transferido XT es igual a:
I(Y T , X T) = H(X T) - H(X T /Y T) = H(Y T) - H(Y T /X T) = n = 2320 bps
La capacidad de un canal continuo con ruido está determinada por la fórmula

=2322 bps.
Probemos que la capacidad de información de un canal continuo sin memoria con ruido gaussiano aditivo con límite en la potencia de pico no es mayor que capacidad de información el mismo canal con la misma limitación de potencia media.
Expectativa matemática para una distribución uniforme simétrica

Cuadrado medio para distribución uniforme simétrica

Varianza para distribución uniforme simétrica

Al mismo tiempo, para un proceso uniformemente distribuido.
Entropía diferencial de una señal con una distribución uniforme
.
La diferencia entre las entropías diferenciales de un proceso normal y uniformemente distribuido no depende del valor de la dispersión.
= 0,3 bits/cuenta
Así, el caudal y la capacidad del canal de comunicación para un proceso con distribución normal es mayor que para uno uniforme.
Determinar la capacidad (volumen) del canal de comunicación
V k = T k C k = 10×60×2322 = 1,3932 Mbit.
Determinar la cantidad de información que se puede transmitir en 10 minutos del canal
10× 60× 2322=1,3932 Mbit.
Tareas

Usando recursos de Internet, encuentre respuestas a preguntas:

Ejercicio 1

1. ¿Cuál es el proceso de transferencia de información?

Transferencia de información- el proceso físico por el cual se transfiere la información en el espacio. Grabaron la información en un disco y la trasladaron a otra habitación. Este proceso caracterizado por la presencia de los siguientes componentes:


2. Esquema general de transferencia de información

3. Haz una lista de los canales de comunicación que conoces

Enlace(Inglés) canal, línea de datos) - un sistema de medios técnicos y un entorno de propagación de señales para transmitir mensajes (no solo datos) desde una fuente a un destinatario (y viceversa). Un canal de comunicación entendido en sentido estricto ( ruta de comunicación) representa solo el medio de propagación físico, como una línea de comunicación física.

Según el tipo de medio de distribución, los canales de comunicación se dividen en:

4. ¿Qué son las telecomunicaciones y las telecomunicaciones informáticas?

telecomunicaciones(del griego tele - lejano, y del lat. communicatio - comunicación) es la transmisión y recepción de cualquier información (sonido, imagen, datos, texto) a distancia a través de diversos sistemas electromagnéticos (canales de cable y fibra óptica, canales de radio y otros cableados). y canales inalámbricos conexiones).

red de telecomunicaciones
- un sistema de medios técnicos a través del cual se realizan las telecomunicaciones.

Las redes de telecomunicaciones incluyen:
1. Redes informáticas (para transmisión de datos)
2. Redes telefónicas (transmisión de información de voz)
3. Redes de radio (transmisión de información de voz - servicios de difusión)
4. Redes de televisión (transmisión de voz e imagen - servicios de difusión)

Telecomunicaciones informáticas: telecomunicaciones, cuyos dispositivos terminales son computadoras.

La transferencia de información de computadora a computadora se llama comunicación sincrónica, y a través de una computadora intermedia, que le permite acumular mensajes y transferirlos a Computadoras personales según lo solicitado por el usuario, - asíncrono.

Las telecomunicaciones informáticas están empezando a echar raíces en la educación. En la educación superior, se utilizan para la coordinación de la investigación científica, el intercambio rápido de información entre los participantes del proyecto, el aprendizaje a distancia y las consultas. En el sistema de educación escolar: aumentar la efectividad de las actividades independientes de los estudiantes relacionadas con varios tipos de trabajo creativo, incluidas las actividades educativas, basadas en el uso generalizado de métodos de investigación, acceso gratuito a bases de datos e intercambio de información con socios tanto a nivel nacional y en el extranjero.

5. ¿Cuál es el ancho de banda del canal de transmisión de información?
Banda ancha- característica métrica, que muestra la relación del número máximo de unidades de paso (información, objetos, volumen) por unidad de tiempo a través de un canal, sistema, nodo.
En informática, la definición de ancho de banda generalmente se aplica a un canal de comunicación y se define el número máximo información transmitida/recibida por unidad de tiempo.
El ancho de banda es uno de los factores más importantes desde el punto de vista del usuario. Se estima por la cantidad de datos que la red, en el límite, puede transferir por unidad de tiempo de un dispositivo conectado a ella a otro.

La velocidad de la transferencia de información depende en gran medida de la velocidad de su creación (rendimiento de la fuente), métodos de codificación y decodificación. La tasa de transferencia de información más alta posible en un canal determinado se denomina ancho de banda. La capacidad del canal, por definición, es la tasa de transferencia de información cuando se utiliza la fuente, el codificador y el decodificador "mejores" (óptimos) para un canal dado, por lo tanto, caracteriza solo el canal.

>>Informática: Informática Grado 9. Anexo al Capítulo 1

Anexo al Capítulo 1

1.1. Transferencia de información a través de canales técnicos de comunicación.

Los temas principales del párrafo:

♦ esquema de K. Shannon;
♦ codificación y decodificación de información;
♦ ruido y protección contra el ruido. Teoría de codificación por K. Shannon.

El esquema de K. Shannon

El científico estadounidense, uno de los fundadores de la teoría de la información, Claude Shannon propuso un esquema del proceso transmisión de información a través de los canales de comunicación técnica, que se muestra en la Fig. 1.3.

El funcionamiento de tal esquema puede explicarse por el proceso familiar de hablar por teléfono. La fuente de información es la persona que habla. Un codificador es un micrófono de mano que convierte las ondas de sonido (habla) en señales eléctricas. El canal de comunicación es la red telefónica (cables, conmutadores de nodos telefónicos a través de los cuales pasa la señal). El dispositivo decodificador es un auricular (auricular) de la persona que escucha, el receptor de la información. Aquí la señal eléctrica entrante se convierte en sonido.

La comunicación en la que la transmisión tiene lugar en forma de una señal eléctrica continua se denomina comunicación analógica.

Codificar y decodificar información

Se entiende por codificación cualquier transformación de información proveniente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación.

En los albores de la era de la radio, se utilizó el código Morse. El texto se convirtió en una secuencia de puntos y rayas (señales cortas y largas) y se transmitió. Una persona que recibió tal transmisión de oído debería haber sido capaz de decodificar el código en texto. Incluso antes, el código Morse se usaba en las comunicaciones telegráficas. La transmisión de información utilizando el código Morse es un ejemplo de comunicación discreta.

En la actualidad, la comunicación digital es muy utilizada, cuando la transmisión información codificado en forma binaria (0 y 1 son dígitos binarios) y luego decodificado en texto, imagen, sonido. La comunicación digital, obviamente, también es discreta.

Protección contra el ruido y el ruido. Teoría de la codificación por K. Shannon

El término "ruido" se refiere a varios tipos de interferencia que distorsionan la señal transmitida y conducen a la pérdida de información. Dicha interferencia ocurre principalmente debido a razones técnicas: mala calidad de las líneas de comunicación, inseguridad entre sí de varios flujos de información transmitidos por los mismos canales. A menudo, cuando hablamos por teléfono, escuchamos ruidos, crujidos, que dificultan la comprensión del interlocutor, o la conversación de otras personas se superpone a nuestra conversación. En tales casos es necesaria la protección contra el ruido.

En primer lugar, se utilizan métodos técnicos para proteger los canales de comunicación de los efectos del ruido. Dichos métodos son muy diferentes, a veces simples, a veces muy complejos. Por ejemplo, usar cable blindado en lugar de cable desnudo; el uso de varios tipos de filtros que separan la señal útil del ruido, etc.

Claude Shannon desarrolló una teoría de codificación especial que proporciona métodos para lidiar con el ruido. Una de las ideas importantes de esta teoría es que el código transmitido por la línea de comunicación debe ser redundante. Debido a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Por ejemplo, si es difícil escucharlo cuando habla por teléfono, al repetir cada palabra dos veces, tiene más posibilidades de que el interlocutor lo entienda correctamente.

Sin embargo, no puede hacer que la redundancia sea demasiado grande. Esto conducirá a retrasos y mayores costos de comunicación. La teoría de codificación de K. Shannon solo le permite obtener un código que sea óptimo. En este caso, la redundancia de la información transmitida será la mínima posible y la fiabilidad de la información recibida será la máxima.

En los sistemas de comunicación digital modernos, la siguiente técnica se usa a menudo para combatir la pérdida de información durante la transmisión. Todo el mensaje se divide en porciones: paquetes. Para cada paquete, se calcula un cheque suma(suma de dígitos binarios) que se transmite con este paquete. En el lugar de recepción, se vuelve a calcular la suma de verificación del paquete recibido y, si no coincide con el original, se repite la transmisión de este paquete. Esto sucede hasta que las sumas de verificación inicial y final coinciden.

Brevemente sobre los principales

Cualquier sistema de transmisión de información técnica consta de una fuente, un receptor, dispositivos de codificación y decodificación y un canal de comunicación.

La codificación se entiende como la transformación de la información proveniente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación. La decodificación es la transformación inversa.

El ruido es una interferencia que conduce a la pérdida de información.

En la teoría de la codificación, se han desarrollado métodos para representar la información transmitida con el fin de reducir su pérdida bajo la influencia del ruido.

preguntas y tareas

1. Mencione los principales elementos del esquema de transferencia de información propuesto por K. Shannon.
2. ¿Qué es codificar y decodificar al transmitir información?
3. ¿Qué es el ruido? ¿Cuáles son sus implicaciones para la transmisión de información?
4. ¿Cuáles son las formas de lidiar con el ruido?

1.2. Comprimir y descomprimir archivos

Los temas principales del párrafo:

♦ problema de compresión de datos;
♦ algoritmo de compresión utilizando un código de longitud variable;
♦ algoritmo de compresión utilizando factor de repetición;
♦ programas de archivo.

Problema de compresión de datos

Ya sabes que con la ayuda de Internet global, el usuario obtiene acceso a enormes recursos de información. En la red puedes encontrar un libro raro, un ensayo sobre casi cualquier tema, fotografías y música, un juego de computadora y mucho más. Al transferir estos datos a través de la red, pueden surgir problemas debido a su gran volumen. La capacidad de los canales de comunicación es todavía bastante limitada. Por lo tanto, el tiempo de transmisión puede ser demasiado largo y esto está asociado con costos financieros adicionales. Además, para archivos grandes, es posible que no haya suficiente espacio libre en disco.

La solución al problema es la compresión de datos, que reduce la cantidad de datos conservando el contenido codificado en ellos. Los programas que realizan dicha compresión se denominan archivadores. Los primeros archivadores aparecieron a mediados de la década de 1980 del siglo XX. El objetivo principal de su uso era ahorrar espacio en los discos, cuyo volumen de información en ese momento era mucho menor que el volumen de los discos modernos.

La compresión de datos (archivo de archivos) se produce de acuerdo con algoritmos especiales. Estos algoritmos suelen utilizar dos ideas fundamentalmente diferentes.

Algoritmo de compresión usando código de longitud variable

Primera idea: usar código de longitud variable. Los datos que se comprimen se dividen en partes de una manera especial (cadenas de caracteres, “palabras”). Tenga en cuenta que un solo carácter (código ASCII) también puede ser una "palabra". Para cada "palabra", se encuentra la frecuencia de ocurrencia: la relación entre el número de repeticiones de esta "palabra" y el número total de "palabras" en la matriz de datos. La idea del algoritmo de compresión de información es codificar las "palabras" que ocurren con mayor frecuencia con códigos de menor longitud que las "palabras" que ocurren con poca frecuencia. Esto puede reducir significativamente el tamaño del archivo.

Este enfoque se conoce desde hace mucho tiempo. Se utiliza en el código Morse, donde los caracteres se codifican mediante varias secuencias de puntos y rayas, y los caracteres que aparecen con mayor frecuencia tienen códigos más cortos. Por ejemplo, la letra "A" de uso común se codifica como: -. Una letra rara "Ж" está codificada: -. A diferencia de los códigos de la misma longitud, en este caso existe el problema de separar los códigos de letras entre sí. En el código Morse, este problema se resuelve con la ayuda de una "pausa" (espacio), que, de hecho, es el tercer carácter del alfabeto Morse, es decir, el alfabeto Morse no tiene dos, sino tres caracteres.

La información en la memoria de la computadora se almacena utilizando un alfabeto de dos caracteres. No hay ningún carácter separador especial. Y, sin embargo, logramos encontrar una forma de comprimir datos con una longitud variable del código de "palabra" que no requiere un carácter separador. Este algoritmo se denomina algoritmo de D. Huffman (publicado por primera vez en 1952). Todos los archivadores universales funcionan con algoritmos similares al algoritmo de Huffman.

Algoritmo de compresión usando factor de repetición

Segunda idea: usar un factor de repetición. El significado del algoritmo basado en esta idea es el siguiente: si se produce una cadena de grupos de caracteres que se repiten en una matriz de datos comprimidos, se reemplaza por un par: el número (coeficiente) de repeticiones: un grupo de caracteres. En este caso, para cadenas repetitivas largas, la ganancia de memoria durante la compresión puede ser muy grande. Este método es más efectivo cuando se empaqueta información gráfica.

Programas de archivo

Los programas de archivo crean archivos de almacenamiento (archivos). Un archivo es un archivo que almacena uno o más archivos en forma comprimida. Para usar archivos archivados, es necesario extraerlos del archivo, descomprimirlos. Todos programas Los archivadores suelen proporcionar las siguientes características:

Agregar archivos al archivo;
extracción de archivos del archivo;
eliminar archivos del archivo;
ver el contenido del archivo.

Actualmente, los archivadores más populares son WinRar y WinZip. WinRar tiene más funciones que WinZip. En particular, permite crear un archivo de varios volúmenes (esto es conveniente si el archivo debe copiarse en un disquete y su tamaño supera los 1,44 MB), así como la capacidad de crear un archivo autoextraíble. (en este caso, el archivador en sí no es necesario para extraer datos del archivo) .

Demos un ejemplo de los beneficios de usar archivadores al transferir datos a través de una red. El tamaño del documento de texto que contiene el párrafo que está leyendo actualmente es de 31 KB. Si este documento se archiva con WinRar, el tamaño del archivo comprimido será de solo 6 KB. Como dicen, el beneficio es obvio.

El uso de programas de archivo es muy simple. Para crear un archivo, primero debe seleccionar los archivos que desea incluir en él, luego establecer los parámetros necesarios (método de archivo, formato de archivo, tamaño del volumen si el archivo es de varios volúmenes) y finalmente emitir el comando CREAR ARCHIVO. De manera similar, ocurre la acción inversa: extraer archivos del archivo (descomprimir el archivo). En primer lugar, debe seleccionar los archivos que se extraerán del archivo, en segundo lugar, determinar dónde se deben colocar estos archivos y, finalmente, ejecutar el comando EXTRAER ARCHIVOS DEL ARCHIVO. Aprenderás más sobre el trabajo de archivo de programas en clases prácticas.

Brevemente sobre los principales

La información se comprime con la ayuda de programas de archivo especiales.

Los dos métodos más utilizados en los algoritmos de compresión son el uso de un código de longitud variable y el uso de un factor de repetición de grupo de caracteres.

preguntas y tareas

1. ¿Cuál es la diferencia entre los códigos de longitud constante y variable?
2. ¿Cuáles son las capacidades de los programas de archivo?
3. ¿Cuál es la razón? aplicación amplia software de archivo?
4. ¿Conoce otros archivadores además de los enumerados en este párrafo?

I. Semakin, L. Zalogova, S. Rusakov, L. Shestakova, Informática, Grado 9
Enviado por lectores de sitios de Internet

Lección abierta de informática, plan escolar, resúmenes de informática, todo para que el estudiante haga la tarea, descargue informática grado 9

Contenido de la lección resumen de la lección marco de apoyo lección presentación métodos acelerativos tecnologías interactivas Práctica tareas y ejercicios autoexamen talleres, capacitaciones, casos, búsquedas deberes preguntas de discusión preguntas retóricas de los estudiantes Ilustraciones audio, video clips y multimedia fotografías, imágenes gráficas, tablas, esquemas de humor, anécdotas, chistes, cómics, parábolas, refranes, crucigramas, citas Complementos resúmenes artículos fichas para inquisitivos chuletas libros de texto básicos y adicionales glosario de términos otros Mejorar los libros de texto y las lecciones.corregir errores en el libro de texto actualizar un fragmento en el libro de texto elementos de innovación en la lección reemplazar el conocimiento obsoleto por otros nuevos Solo para profesores lecciones perfectas plan de calendario año recomendaciones metodológicas del programa de debate Lecciones integradas

Si tiene correcciones o sugerencias para esta lección,

La transferencia de información se produce desde la fuente hasta el destinatario (receptor) de la información. fuente la informacion puede ser cualquier cosa: cualquier objeto o fenomeno de naturaleza viva o inanimada. El proceso de transferencia de información tiene lugar en algún entorno material que separa la fuente y el receptor de la información, que se denomina canal transferencia de información. La información se transmite a través de un canal en forma de una determinada secuencia de señales, símbolos, signos, que se denominan mensaje. Recipiente la información es un objeto que recibe un mensaje, como resultado del cual ocurren ciertos cambios en su estado. Todo lo anterior se muestra esquemáticamente en la figura.

Transferencia de información

Una persona recibe información de todo lo que le rodea, a través de los sentidos: oído, vista, olfato, tacto, gusto. Una persona recibe la mayor cantidad de información a través del oído y la vista. Los mensajes de sonido son percibidos por el oído: señales acústicas en un medio continuo (la mayoría de las veces en el aire). La visión percibe señales de luz que llevan la imagen de los objetos.

No todos los mensajes son informativos para una persona. Por ejemplo, un mensaje en un idioma incomprensible, aunque transmitido a una persona, no contiene información para ella y no puede provocar cambios adecuados en su estado.

Un canal de información puede ser de naturaleza natural (aire atmosférico a través del cual se transmiten ondas sonoras, luz solar reflejada por los objetos observados) o creado artificialmente. En este último caso, estamos hablando de medios técnicos de comunicación.

Sistemas de transmisión de información técnica

El primer medio técnico de transmisión de información a distancia fue el telégrafo, inventado en 1837 por el estadounidense Samuel Morse. En 1876, el estadounidense A. Bell inventa el teléfono. Basado en el descubrimiento de las ondas electromagnéticas por el físico alemán Heinrich Hertz (1886), A.S. Popov en Rusia en 1895 y casi simultáneamente con él en 1896 G. Marconi en Italia, se inventó la radio. La televisión e Internet aparecieron en el siglo XX.

Todos los métodos técnicos de comunicación de información enumerados se basan en la transmisión de una señal física (eléctrica o electromagnética) a distancia y están sujetos a ciertas leyes generales. El estudio de estas leyes es teoría de la comunicación que surgió en la década de 1920. Aparato matemático de la teoría de la comunicación - teoría matemática de la comunicación, desarrollado por el científico estadounidense Claude Shannon.

Claude Elwood Shannon (1916–2001), EE. UU.

Claude Shannon propuso un modelo para el proceso de transmisión de información a través de canales técnicos de comunicación, representado por un diagrama.

Sistema de transmisión de información técnica

Codificar aquí significa cualquier transformación de información proveniente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación. Descodificación - transformación inversa de la secuencia de la señal.

El funcionamiento de tal esquema puede explicarse por el proceso familiar de hablar por teléfono. La fuente de información es la persona que habla. Un codificador es un micrófono de mano que convierte las ondas de sonido (habla) en señales eléctricas. El canal de comunicación es la red telefónica (cables, conmutadores de nodos telefónicos a través de los cuales pasa la señal). El dispositivo decodificador es un auricular (auricular) de la persona que escucha, el receptor de la información. Aquí la señal eléctrica entrante se convierte en sonido.

Moderno sistemas informáticos transmisión de información: las redes informáticas funcionan según el mismo principio. Hay un proceso de codificación que convierte el código informático binario en señal física del tipo que se transmite por el canal de comunicación. La decodificación es la transformación inversa de la señal transmitida en código de computadora. Por ejemplo, al usar líneas telefónicas en Red de computadoras Las funciones de codificación y decodificación son realizadas por un dispositivo llamado módem.

Capacidad del canal y tasa de transferencia de información

Los desarrolladores de sistemas de transmisión de información técnica tienen que resolver dos tareas interrelacionadas: cómo garantizar velocidad máxima transmisión de información y cómo reducir la pérdida de información durante la transmisión. Claude Shannon fue el primer científico que asumió la solución de estos problemas y creó una nueva ciencia para esa época: Teoría de la información.

K.Shannon determinó el método para medir la cantidad de información transmitida a través de los canales de comunicación. Introdujeron el concepto Canal de Banda ancha,como la tasa de transferencia de información máxima posible. Esta velocidad se mide en bits por segundo (así como en kilobits por segundo, megabits por segundo).

El rendimiento de un canal de comunicación depende de su implementación técnica. Por ejemplo, las redes informáticas utilizan los siguientes medios de comunicación:

líneas telefónicas,

Conexión de cables eléctricos,

cableado de fibra óptica,

Comunicación por radio.

Rendimiento de las líneas telefónicas: decenas, cientos de Kbps; el rendimiento de las líneas de fibra óptica y las líneas de comunicación por radio se mide en decenas y cientos de Mbps.

Ruido, protección contra el ruido

El término "ruido" se refiere a varios tipos de interferencia que distorsionan la señal transmitida y conducen a la pérdida de información. Dicha interferencia ocurre principalmente debido a razones técnicas: mala calidad de las líneas de comunicación, inseguridad entre sí de varios flujos de información transmitidos por los mismos canales. A veces, mientras hablamos por teléfono, escuchamos ruidos, crujidos, que dificultan la comprensión del interlocutor, o la conversación de personas completamente diferentes se superpone a nuestra conversación.

La presencia de ruido conduce a la pérdida de la información transmitida. En tales casos es necesaria la protección contra el ruido.

En primer lugar, se utilizan métodos técnicos para proteger los canales de comunicación de los efectos del ruido. Por ejemplo, usar cable blindado en lugar de cable desnudo; el uso de varios tipos de filtros que separan la señal útil del ruido, etc.

Claude Shannon desarrolló teoría de la codificación, que proporciona métodos para tratar el ruido. Una de las ideas importantes de esta teoría es que el código transmitido por la línea de comunicación debe ser redundante. Debido a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Por ejemplo, si es difícil escucharlo cuando habla por teléfono, al repetir cada palabra dos veces, tiene más posibilidades de que el interlocutor lo entienda correctamente.

Sin embargo, no puede hacer que la redundancia sea demasiado grande. Esto conducirá a retrasos y mayores costos de comunicación. La teoría de la codificación le permite obtener un código que será óptimo. En este caso, la redundancia de la información transmitida será la mínima posible y la fiabilidad de la información recibida será la máxima.

En los sistemas de comunicación digital modernos, la siguiente técnica se usa a menudo para combatir la pérdida de información durante la transmisión. Todo el mensaje se divide en porciones: paquetes. Para cada paquete se calcula suma de control(suma de dígitos binarios) que se transmite con este paquete. En el lugar de recepción, se vuelve a calcular la suma de control del paquete recibido y, si no coincide con la suma original, se repite la transmisión de este paquete. Esto continuará hasta que las sumas de verificación inicial y final coincidan.

Considerando la transferencia de información en cursos propedéuticos y de informática básica, en primer lugar, este tema debe ser discutido desde la posición de una persona como receptora de información. La capacidad de recibir información del mundo circundante es la condición más importante para la existencia humana. Los órganos de los sentidos humanos son los canales de información del cuerpo humano, llevando a cabo la conexión de una persona con el entorno externo. Sobre esta base, la información se divide en visual, auditiva, olfativa, táctil y gustativa. La razón por la que el gusto, el olfato y el tacto transmiten información a una persona es la siguiente: recordamos los olores de los objetos familiares, el sabor de la comida familiar, reconocemos los objetos familiares por el tacto. Y el contenido de nuestra memoria es información almacenada.

Se debe decir a los estudiantes que en el mundo animal el papel informativo de los sentidos es diferente al humano. El sentido del olfato desempeña una importante función informativa para los animales. Los organismos encargados de hacer cumplir la ley utilizan el elevado sentido del olfato de los perros de servicio para buscar delincuentes, detectar drogas, etc. La percepción visual y auditiva de los animales difiere de la de los humanos. Por ejemplo, se sabe que los murciélagos escuchan ultrasonido y que los gatos ven en la oscuridad (desde una perspectiva humana).

En el marco de este tema, los estudiantes deben ser capaces de liderar ejemplos concretos el proceso de transferencia de información, para determinar para estos ejemplos la fuente, receptor de información, canales de transmisión de información utilizados.

Al estudiar informática en la escuela secundaria, los estudiantes deben conocer las disposiciones básicas de la teoría técnica de la comunicación: los conceptos de codificación, decodificación, tasa de transferencia de información, capacidad del canal, ruido, protección contra el ruido. Estos temas pueden ser considerados bajo el tema “ Medios técnicos Red de computadoras".