Temario Oposición Profesor FP Informática/Tema 01. Representación y comunicación de la información.

De Wikilibros, la colección de libros de texto de contenido libre.

La información[editar]

En sentido general, la información es un conjunto organizado de datos procesados que constituyen un mensaje sobre un determinado fenómeno. Actualmente el procesamiento de la información, gracias a la evolución de la informática y las nuevas tecnologías se ha convertido en uno de los puntales más importantes de nuestra sociedad hasta el punto de hablar de C3 % B3n Sociedad de la información y comparar el cambio que ha experimentado nuestra sociedad con la incorporación de los ordenadores y la expansión de las redes de comunicaciones en todos los ámbitos de la vida. Las TIC (Tecnologías de la Información y las Comunicaciones) constituyen hoy el mismo factor de transformación que en su momento tuvieron la imprenta o la máquina de vapor durante la Revolución Industrial.

De hecho una de las industrias actuales más importantes es la Industria de la comunicación de datos y todo lo asociado a las TIC es un sector económico muy importante en la actualidad.

'Recursos':

Estructura de un sistema elemental de información[editar]

Archivo:SistemaComunicacions.png

Para que haya comunicación son necesarios los tres elementos siguientes:

  • 'Emisor'
  • 'Receptor'
  • 'Mensaje: Entre el emisor y el receptor deben utilizar un lenguaje y una forma de actuar que sea entendido por ambas partes. Al lenguaje se le llama código ya la forma de actuar en la transmisión de información se llama 'protocolo.
  • canal de transmisión: de canales hay de muchos tipos siendo uno de los más importantes el aire pero también sistemas como cables de cobre, fibra óptica, canal IDE, canal SATA, buffer de memoria, canal de radiofrecuencia, etc ...

Canal y ruido[editar]

  • 'Canal': El canal de transmisión es el medio físico a través del cual se transporta la información y puede ser por línea (cable de par trenzado, coaxial, fibra óptica) o por medio de ondas terrestres y ondas vía satélite.
  • 'ruido': El concepto de información es subjetivo y relativo a los conocimientos del receptor. Por ejemplo el ruido de los radiotelescopios no era ninguna información hasta mitad del siglo XX, que se demostró que eran restos del BIG BANG y entonces estos ruido se convirtió en una fuente de información muy importante. Esta "ruido" nunca será información para un mono. Algo similar ocurre cuando sentimos un idioma que no conocemos

Hay diferentes tipos de ruido:

  • 'Ruido intrínseco': su origen está en el propio sistema de comunicación (introducido por el canal)
  • 'Ruido extrínseco o interferencia': su origen está fuera del sistema de comunicación

Y así mismo hay diferentes tipos de ruido según sus características frecuenciales. Este diferentes tipos de ruido son clasificados por colores, siendo el más conocido el ruido blanco gaussiano (el ejemplo más claro lo podemos encontrar en un canal de televisión que no está sintonizado, lo que se denomina la "nieve").

La transmisión de la información puede ser 'simplex cuando la comunicación se efectúa en un sentido, 'semi-duplex cuando se efectúa en los dos sentidos pero no de forma simultánea y ' full-duplex 'cuando hay comunicación en ambos sentidos de forma simultánea.

'Recursos':

Alfabeto y código[editar]

'Terminología de los códigos':

  • 'Alfabeto origen': conjunto de símbolos de la fuente de información que se debe codificar.
  • 'Alfabeto imagen (palabras código )': conjunto de símbolos utilizados para representar el alfabeto origen.
  • 'Código': relación normalizada entre el alfabeto origen y el alfabeto imagen.

En los siguientes apartado veremos los códigos más utilizados en informática (código binarios y derivados como el octal o el hexadecimal) y códigos alfanuméricos (ASCII, unicode)

Informática e información[editar]

Consulte la sección Informática e información de Tema 10.

Introducción a la teoría matemática de la información[editar]

Teoría de la información[editar]

Reserva elemental de un código[editar]

Códigos de caracteres equiprobables[editar]

Códigos de caracteres no equiprobables[editar]

Entropia[editar]

Codificación de la información[editar]

Toda la información que utilizan los ordenadores se puede representar mediante dos números el 1 y el 0 que representan dos estados eléctricos (tensión o no tensión). El ordenador puede representar símbolos numéricos, alfabéticos, gráficos ... etc.

Se conoce como codificación de la información en la correspondencia que existe entre los símbolos que es capaz de representar el ordenador y la pareja de símbolos que utilizan los ordenadores (1 y 0) y al proceso inverso se conoce como decodificación de la información . La codificación de la información en algunos casos esta estandarizada, como es el caso de los códigos alfanuméricos ASCII y EBCDIC y las operaciones aritméticas se utilizan códigos basados en el sistema binario, octal y hexadecimal.


Concepto de código[editar]

Clasificación de los códigos[editar]

Códigos de canal[editar]

Códigos de protección de la información[editar]

Códigos de seguridad (códigos criptográficos)[editar]

Sistema binario[editar]

El sistema binario o de base dos utiliza sólo dos símbolos, el 0 y el 1, cada uno de ellos se dice que es un bit o la unidad más pequeña de 'información. Es un sistema de numeración posicional y el bit de más a la izquierda es el que se conoce como bit más significativo y el de la derecha como bit menos significativo. La cantidad de números que se pueden representar en sistema binario es de 2 elevado al número de bits que se utilizan para su representación. En el sistema binario los grupos de bits reciben los siguientes nombres: cuando tienen cuatro bits se denominan nibble, ocho bits byte, 16 bits media palabra, 32 bits palabra y 64 bits doble palabra. Los múltiplos del byte son:

'Recursos':

Breve historia[editar]

El antiguo matemático hindú Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era, lo cual coincidió con su descubrimiento del concepto del número cero.

Una serie completa de 8 trigramas y 64 hexagramas, análogos a 3 bit y números binarios de 6 bit, eran conocidos en la antigua china en el texto clásico del I Ching. Series similares de combinaciones binarias también han sido utilizados en sistemas de adivinación tradicionales africanos como el IFA, así como en la geomancia medieval occidental.

Un arreglo binario ordenado de los hexagramas del I Ching, representando la secuencia decimal de 0 a 63, y un método para generar el mismo, fue desarrollado por el erudito y filosofía china Shao Yong en el siglo XI. Sin embargo, no hay ninguna prueba de que Shao entendió el cómputo binario.

En 1605 Francis Bacon habló de un sistema por el cual las letras del alfabeto podrían reducirse a secuencias de dígitos binarios, la cuales podrían ser codificados como variaciones apenas visibles en la fuente de cualquier texto arbitrario.

El sistema binario moderno fue documentado en su totalidad por Leibniz, en el siglo diecisiete, en su artículo "explications del Arithmétique Binaire". En él se mencionan los símbolos binarios usados por matemáticos chinos. Leibniz usó el 0 y el 1, al igual que el sistema de numeración binario actual.

En 1854, el matemático británico George Boole, publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema jugaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.

En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.

En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell, construyó un ordenador basado en relés - al cual apodo "Modelo K" (porque lo construyó en una cocina, en inglés "kitchen") - que utilizaba la suma binaria para realizar los cálculos.

Unidades de datos binaries[editar]

  • 1 Kilobyte = 1 KB = 1024 bytes
  • 1 Megabyte = 1MB = 10242 bytes
  • 1 Gigabyte = 1 GB = 10243 bytes
  • 1 Terabyte = 1 TB = 10244 bytes
  • 1 Petabyte = 1 PB = 10245 bytes

Operaciones[editar]

'Suma':

0 + 0 = 0
0 + 1 = 1
1 + 0 = 1
1 + 1 = 0 (y llevamos 1)

'Resto'

0 a 0 = 0
0 a 1 = 1 (y llevamos 1)
1 a 0 = 1
1-1 = 0

'Multiplicación'

0 * 0 = 0
0 * 1 = 0
1 * 0 = 0
1 * 1 = 1

Transformaciones de binario a decimal. Cambios de base[editar]

Sistema octal y sistema hexadecimal[editar]

El sistema octal utiliza 7 símbolos para representar los números (0,1., 2 ,..., 7). La ventaja de este sistema de numeración está en la facilidad que se puede pasar un número octal a binario y de binario a octal. Para pasar de octal a binario sólo hay que representar cada cifra octal con tres bits en binario y para pasar de binario a octal agrupamos los bits del número binario de tres en tres empezando por la derecha y traduciendo directamente cada grupo de tres bits a una cifra octal.

'Ejemplo de octal a binario'

47 (8 = 100111

'de binario a octal'

1101110 (2 = 156 (8

El sistema hexadecimal utiliza 16 símbolos para representar los números, estos símbolos son (0, 1, 2, 3, 4, 5, ...., 9, A, B, C, D, E, F). Al igual que en el sistema octal podemos pasar un número hexadecimal a binario y al revés de forma directa. En este caso utilizaremos 4 bits para representar en sistema binario las cifras hexadecimales o para pasar de binario a hexadecimal también se hacen grupos de cuatro bits empezando por la derecha. Ejemplos:

'De hexadecimal a binario':

3F1 (16 = 0011 1111 0001

'De binario a hexadecimal':

10110100110 = 0101 1010 0110 = 5A6

Codificación alfanumérica[editar]

Hoy en día los más utilizados son los de ocho bits como EBCDIC o ASCII extendido y para poder representar los códigos correspondiente a varios idiomas a la vez se utiliza el código UNICODE, de 16 bits, que puede representar hasta 65.536 símbolos.

Código ASCII[editar]

Es un código alfanumérico que permite representar números, letras mayúsculas y minúsculas así como caracteres especiales. Utiliza siete bits y normalmente se incluye otro de paridad. Estos bits están repartidos en tres bits de zona y cuatro de posición. Un ejemplo de cómo funciona es el siguiente: a las letras de la A a la O les corresponden los bits de la zona: 100 y de posición los que van del 0000 al 1111. Así, por ejemplo, la A sería 100 0001.

Código EBCDIC o ASCII de 8 bits[editar]

Es una codificación que utiliza 8 bits para representar números, letras o caracteres especiales. Estos bits se dividen en dos grupos de cuatro, los cuatro de la derecha son los de posición y los cuatro de la izquierda los bits de zona. Así por ejemplo los dos primeros bits de zona cuando están au representan letras mayúsculas y números, los dos bits siguientes cuando están a 0 representan las letras de la A a la I indicando en el bit de posición de qué se trata, así, por la A es la 0001.

UNICODE[editar]

Codificación en presencia de ruido[editar]

El ruido y sus efectos en las transmisiones de datos[editar]

Adaptación al canal o al medio físico de almacenamiento. Códigos de línea[editar]

'Recursos':

Líneas de transmisión[editar]

Señal RF[editar]

Señal óptico =[editar]

Código de papel (código de barras )[editar]

Almacenamiento magnético (disco duro) u óptico (pechos, CD )[editar]

NRZ (No Retorno a Cero )[editar]

Manchester[editar]

4B5B, MLT-3[editar]

http://en.wikipedia.org/wiki/Fast_Ethernet

Estrategias para la protección de datos mediante la codificación[editar]

Bits de redundancia[editar]

Bit de paridad[editar]

Distancia de Hamming[editar]

Comprobación de paridad[editar]

Códigos cíclicos (CRC)[editar]

Códigos de Hamming[editar]

Evolución histórica del procesamiento de la información[editar]

Temas relacionados[editar]

Códigos de seguridad[editar]

Criptografía clásica[editar]

Códigos de traslación[editar]

Código del Cesar

Códigos de transformación de símbolos[editar]

Funciones criptográficas de HASH[editar]

Sumas MD5.

Criptografía moderna[editar]

Criptografía simétrica[editar]

MD5, DES, 3-DES, SHA[editar]

Criptográfica asimétrica[editar]

CriptioDiffie-Hellman RSA y DSA[editar]

Ciclos Formativos, módulos, créditos y unidades didácticas donde se aplica este tema[editar]

  • 'Módulo': Redes de Área Local
  • 'Crédito': Redes de Área Local
  • 'Ciclo Formativo': Administración de Sistemas Informáticos
  • 'Especialidad': Profesor de Secundaria.