49
Teoría de la información Teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés). La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos para enviar información o la cantidad de información útil que se puede enviar a través de un canal. Fuentes de información Teorema de muestreo de Nyquist-Shannon Entropía Neguentropía Información mutua Canales Capacidad Compresión de datos Códigos fuente Códigos no-singulares Códigos unívocamente decodificables Extensión de código Códigos prefijo (o códigos instantáneos)

Teoría de la información.docx

Embed Size (px)

Citation preview

Page 1: Teoría de la información.docx

Teoría de la informaciónTeoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados.

Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés).

La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos para enviar información o la cantidad de información útil que se puede enviar a través de un canal.

Fuentes de información Teorema de muestreo de Nyquist-Shannon Entropía Neguentropía Información mutua

Canales Capacidad

Compresión de datos Códigos fuente Códigos no-singulares Códigos unívocamente decodificables

Extensión de código Códigos prefijo (o códigos instantáneos)

Control de errores FEC ARQ

Parada y espera

Page 2: Teoría de la información.docx

Rechazo múltiple Rechazo selectivo

Técnicas híbridas Concatenación de códigos Tipo 1 Tipo 2

Detección de errores Bits de redundancia

Métodos de control de errores Paridad

Códigos autochequeo y autocorrectores Códigos de bloque

Distancia Hamming Paridad horizontal y vertical

Códigos lineales Códigos cíclicos

CRC16 CRC32

Page 3: Teoría de la información.docx

Fuente documental(Redirigido desde Fuentes de información)

Fuente documental, es el origen de una información, especialmente para la investigación, bien sea el periodismo, la historiografía y la producción de literatura académica en general.

Primera página del panfleto de Sieyès, 1789

Tabla de contenidos

[ocultar]

1 Fuente y documento

2 Clasificación de las fuentes de información

Page 4: Teoría de la información.docx

2.1 Prelación de las fuentes

2.2 Tipología de las fuentes

3 Tratamiento de las fuentes

3.1 Reunión de fuentes

3.2 Crítica de las fuentes

3.3 Contraste de fuentes

3.4 Respeto a las fuentes

3.4.1 Cita de las fuentes

3.4.2 ¿Se puede ocultar una fuente por respeto?

4 Referencias

Fuente y documento [editar]

No conviene confundirlos, aunque son conceptos confluyentes: El documento es el soporte de la fuente. Se habla de documentos escritos, documentos sonoros, documentos cinemátográficos. Los documentos tienen su tipología (públicos, privados, etc.). La mayor parte de las veces se les utiliza como sinónimos, y las partes que vienen a continuación podrían nombrarse tratamiento documental, crítica documental, etc., aunque no sea estricto. Si nos hallamos ante el famoso folleto de Sieyès ¿Qué es el tercer estado?, la fuente es el abate Emmanuel Joseph Sieyès (es él quien habla); el documento es un escrito divulgado por la imprenta (puede medirse, contar su número de páginas, analizar su papel, catalogarse...).

Clasificación de las fuentes de información [editar]

Prelación de las fuentes [editar]

Según su originalidad u orden de precedencia puede ser:

fuente primaria, es el material de primera mano relativo a un fenómeno que se desea investigar. En el caso de la historiografía, lo que en su tiempo ha servido como instrumento para construir la historia.

fuente secundaria, es un texto basado en fuentes primarias, que implica un tratamiento: generalización, análisis, síntesis, interpretación o evaluación (ver en este mismo artículo tratamiento de las fuentes). En la historiografía

Page 5: Teoría de la información.docx

(el estudio de la historia), las fuentes secundarias son aquellos documentos que no fueron escritos contemporáneamente a los sucesos estudiados.

fuente terciaria es una selección y recopilación de fuentes primarias y secundarias, por ejemplo: bibliografías, catálogos de biblioteca, directorios, listas de lecturas y artículos sobre encuestas.

Los trabajos de investigación, los libros de texto, las enciclopedias y la propia wikipedia suelen reunir los tres tipos de fuentes.

Tipología de las fuentes [editar]

Según su tipología puede ser:

fuente escrita fuente oral fuente arqueológica

Tratamiento de las fuentes [editar]

Reunión de fuentes [editar]

El primer paso de cualquier investigación es la reunión de un corpus documental suficiente de todas las fuentes de información que vayan a interesar en el tema sobre el que se esté investigando.

Crítica de las fuentes [editar]

El tratamiento de las fuentes documentales, si pretende ser científico, tiene que partir de una crítica de las fuentes, es decir, del juicio que el investigador (periodista o historiador, por ejemplo) deben de hacer sobre su sinceridad y correspondencia con la realidad.

Contraste de fuentes [editar]

Evaluadas en su validez, las fuentes deben contrastarse entre ellas, viendo si coinciden o discrepan, y en qué grado. De ser numerosas ha de aplicárseles el método estadístico que sea más apropiado.

Respeto a las fuentes [editar]

Al mismo tiempo, el tratamiento de las fuentes debe ser respetuoso con ellas mediante la fidelidad a las fuentes: no falsearlas ni tergiversarlas para hacerlas decir lo que al investigador interesa que digan.

Page 6: Teoría de la información.docx

Cita de las fuentes [editar]

La investigación original no debe ocultar las fuentes en las que se basa. Si la aportación original es insuficiente o irrelevante, no hay originalidad sino plagio. La reproducción de citas puede ser abusiva (a veces la mayor parte de el texto son entrecomillados). Para algunos casos (publicación o edición crítica de fuentes) la tarea del investigador se convierte en una glosa. Es necesario utilizar con cuidado el recurso que se conoce como intertextualidad: no entrecomillar y citar a lo largo del texto que escribe el autor de la investigación, pero reconociendo bien sea en el propio texto, a pie de página o al final del capítulo o la obra que lo que se dice tiene una fuente y no es del todo producción propia.

¿Se puede ocultar una fuente por respeto? [editar]

Es famosa, por la divulgación mediática de casos ocurridos en los Estados Unidos, la obligación ética de los periodistas de mantener en secreto las fuentes que así se lo han pedido. La imposibilidad de contrastar y criticar una fuente anónima hace que ese privilegio cause problemas de ética profesional, además de los judiciales, llegado el caso.

Referencias [editar]

ARÓSTEGUI, Julio (2001), La investigación histórica: teoría y método, Barcelona : Crítica. ISBN 84-8432-137-1.

TUÑÓN DE LARA, Manuel (1985), Por qué la Historia, Barcelona : Aula Abierta Salvat. ISBN 84-345-7814-X.

Page 7: Teoría de la información.docx

Entropía (información)Entropía es un concepto en termodinámica, mecánica estadística y Teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer esto aparente. Este artículo versa sobre la entropía, en la formulación que hace de ella la Teoría de la información. Esta entropía se llama frecuentemente Entropía de Shannon, en honor a Claude E. Shannon.

Tabla de contenidos

[ocultar]

1 Concepto básico

2 Definición formal

3 Explicación intuitiva

4 Véase también

Concepto básico [editar]

Entropía de la información en un ensayo de Bernoulli X (experimento aleatorio en que X puede tomar los valores 0 o 1). La entropía depende de la probabilidad P(X=1) de que X tome el valor 1. Cuando P(X=1)=0.5, todos los resultados posibles son igualmente probables, por lo que el resultado es poco predecible y la entropía es máxima.

El concepto básico de entropía en Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "Ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.

Page 8: Teoría de la información.docx

Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros sí lo son (como la 'a'), la cadena de caracteres no es tan "aleatoria" como podría llegar a ser. Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena y eso la haría aparentemente aleatoria; pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 A Mathematical Theory of Communication ("Una Teoría Matemática de la Comunicación", en inglés).

Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:

La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.

Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces, la entropía será máxima.

Definición formal [editar]

La entropía nos indica el límite teórico para la compresión de datos. También es una medida de la información contenida en el mensaje

Su cálculo se realiza mediante la siguiente fórmula:

donde H es la entropía, las p son las probabilidades de que aparezcan los diferentes códigos y n el número total de códigos. Si nos referimos a un sistema, las p se refieren a las probabilidades de que se encuentre en un determinado estado y n el número total de posibles estados.

Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en bits.

Page 9: Teoría de la información.docx

Por ejemplo: El lanzamiento de una moneda al aire para ver si sale cara o cruz (dos estados con probabilidad 0,5) tiene una entropía:

A partir de esta definición básica se pueden definir otras entropías.

Explicación intuitiva [editar]

En un experimento aleatorio, una variable aleatoria X puede tomar distintos valores posibles en distintas repeticiones (realizaciones del experimento). Como algunos valores de X son más probables que otros, existe una distribución de probabilidad de los valores de X, la que depende del experimento elegido.

La entropía asociada a la variable X es un número que depende directamente de la distribución de probabilidad de X, e indica lo plana que es esa distribución. Una distribución es plana (tiene alta entropía) cuando todos los valores de X tienen probabilidades similares, mientras que es poco plana cuando algunos valores de X son mucho más probables que otros. En una distribución de probabilidad plana (con alta entropía) es difícil poder predecir cuál es el próximo valor de X que va a ocurrir, ya que todos los valores de X son igualmente probables.

Si a cada posible valor de X que pueda ocurrir se le asigna una cierta combinación de dígitos binarios 0 o 1 para diferenciarlo de los demás, la cantidad promedio de dígitos binarios que hay que asignarle a los distintos valores de X es (aproximadamente) igual a la entropía de la distribución de probabilidad de X. Los valores 0 o 1 usados son llamados usualmente bits. Además, la metodología comúnmente usada para asignar combinaciones de valores 0 o 1 a los distintos valores posibles de X es denominada codificación Huffman.

Véase también [editar]

Entropía cruzada Perplejidad

Page 10: Teoría de la información.docx

Neguentropía

Page 11: Teoría de la información.docx

La neguentropía se puede definir como el concepto antagónico a la entropía, o simplemente como su opuesto; de forma que, así como la entropía establece que la materia tiende a descomponerse y a permanecer en un estado de caos continuo, la neguentropía define la energía como medio indestructible que tiende a regular el comportamiento de la materia buscando provocar en ella una tendencia al orden.

Tabla de contenidos

[ocultar]

1 Información (neguentropía en la organización)

2 Véase También

3 Referencias

4 Bibliografía

5 Enlaces Externos

Información (neguentropía en la organización) [editar]

La organización como sistema (abierto) esta constituido por los elementos básicos de este (entradas, medio, salidas y retroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medio neguentropico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía). En palabras de la licenciada Luz Amanda Camacho en su Teoría general de sistemas, "reducir la entropía de un sistema es reducir la cantidad de incertidumbre que prevalece". Es desde este punto de vista que se puede considerar a la información como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organización o en cualquier sistema en el que se presenten situaciones de elección con múltiples alternativas.

Véase También [editar]

Teoría de sistemas Entropía (información)

Referencias [editar]

Bibliografía [editar]

Page 12: Teoría de la información.docx

Luz Amanda Camacho: Teoría general de sistemas Johansen O: Las comunicaciones y la conducta organizacional

Enlaces Externos [editar]

La neguentropía como desmitificadora de la ciencia y consolidadora de la vida material

Categoría: Teoría de sistemas

Artículo Discusión Editar Historial

Registrarse/EntrarNavegación

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donativos

Buscar

  Herramientas

Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Versión para imprimir Enlace permanente Citar este artículo

Otros idiomas

Deutsch English Français 日本語

Ir Buscar

Page 13: Teoría de la información.docx

Norsk (bokmål) Simple English

Información mutua

El contenido de esta página es un esbozo sobre informática. Ampliándolo ayudarás a mejorar Wikipedia.

Puedes ayudarte con las wikipedias en otras lenguas.

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dos variables aleatorias es una cantidad que mide la dependencia mutua de dos variables. La unidad de medida más común de información mutua es el bit, ya que suelen ser usados logaritmos de base dos.

Categorías: Wikipedia:Esbozo informática | Teoría de la información

Canal (comunicación)(Redirigido desde Canal de comunicaciones)

Page 14: Teoría de la información.docx

Un canal de comunicación es el medio de transmisión por el que viajan las señales portadoras de la información que pretenden intercambiar emisor y receptor. Es frecuente referenciarlo también como canal de datos.

Los canales pueden ser personales o masivos: los canales personales son aquellos en donde la comunicación es directa. Voz a voz. Puede darse de uno a uno o de uno a varios. Los canales masivos pueden ser escrito, radial, televisivo e informático.

Así sucesivamente se pueden ir identificando los diferentes canales de trasmisión del pensamiento.

En telecomunicaciones, el término canal también tiene los siguientes significados:

1. Una conexión entre los puntos de inicio y terminación de un circuito. 2. Un camino único facilitado mediante un medio de transmisión que puede

ser: 1. Con separación física, tal como un par de un cable multipares.2. Con separación eléctrica, tal como la multiplexación por división

de frecuencia (MDF) o por división de tiempo (MDT). 3. Un camino para el transporte de señales eléctricas o electromagnéticas,

usualmente distinguido de otros caminos paralelos mediante alguno de los métodos señalados en el punto anterior.

4. En conjunción con una predeterminada letra, número o código, hace referencia a una radiofrecuencia específica.

5. Porción de un medio de almacenamiento, tal como una pista o banda, que es accesible a una cabeza o estación de lectura o escritura.

6. En un sistema de comunicaciones, es la parte que conecta una fuente (generador) a un sumidero (receptor) de datos.

En comunicación, Cada canal de transmisión es adecuado para algunas señales concretas y no todos sirven para cualquier tipo de señal. Por ejemplo, la señal eléctrica se propaga bien por canales conductores, pero no ocurre lo mismo con las señales luminosas.

Un canal está definido desde el punto de vista telemático por sus propiedades físicas: naturaleza de la señal que es capaz de transmitir, velocidad de

Page 15: Teoría de la información.docx

transmisión, ancho de banda, nivel de ruido que genera, modo de inserción de emisores y receptores, etc.

El ejemplo más común de canal acústico es la atmósfera. Para señales electromagnéticas se puede utilizar multitud de canales dependiendo de la frecuencia de las señales transmitidas: cables, el vacío (satélites), la propia atmósfera, etc.

Un caso particular de canal electromagnético son las fibras ópticas, especializadas en transmisiones luminosas, extraordinariamente rápidas e insensibles al ruido o las posibles contaminaciones de la señal luminosa.

Fuente: Federal Standard 1037C y MIL-STD-188

Categoría: Términos de telecomunicaciones

Artículo Discusión Editar Historial

Registrarse/EntrarNavegación

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donativos

Buscar

  Herramientas

Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Versión para imprimir Enlace permanente

Ir Buscar

Page 16: Teoría de la información.docx

Citar este artículo

Otros idiomas

Dansk Deutsch English Français Galego Nederlands Norsk (bokmål) Polski Português

Capacidad

Page 17: Teoría de la información.docx

Capacidad puede tener uno de los siguientes significados:

Capacidad jurídica se refiere a la habilidad legal de cerrar ciertos actos, tales como la celebración de un contrato

Capacidad craneal es la medida del volumen del interior del cráneo Capacidad de carga de población es la capacidad de un ambiente para

sostener una especie Capacidad calorífica, también llamada capacidad termal, es la capacidad

de la materia de almacenar calor Capacidad tóxica es la capacidad de un organismo, un sistema orgánico o

un ecosistema de sostener la introducción de una toxina Compartimiento de gran capacidad es un dispositivo de alimentación de

municiones para el uso en un arma de fuego que pueda albergar más de 10 rondas de munición

Capacidad analítica es una función matemática Capacidad de asiento se refiere al número de gente que puede sentarse

en un lugar, en los términos del espacio disponible o del sistema de limitaciones por ley. También llamada aforo.

Capacidad de representación de color es una medida de qué tanto se puede percibir un espacio de color bajo la iluminación de una luz específica

Capacidad eléctrica es la propiedad de un conductor para adquirir carga eléctrica.

Capacidad de absorción Capacidad de difusión Capacidad de canal Capacidad portante

Ésta es una página de desambiguación, una ayuda

Compresión de datos

Page 18: Teoría de la información.docx

La compresión de datos consiste en la reducción del volumen de información tratable (procesar, transmitir o grabar). En principio, con la compresión se pretende transportar la misma información, pero empleando la menor cantidad de espacio.

El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el cociente entre la frecuencia de muestreo y la resolución. Por tanto, cuantos más bits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits.

La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE.

En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión:

Por un lado, algunos buscan series largas que luego codifican en formas más breves.

Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten.

Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior.

A la hora de hablar de compresión hay que tener presentes dos conceptos:

1. Redundancia: Datos que son repetitivos o previsibles 2. Entropía: La información nueva o esencial que se define como la

diferencia entre la cantidad total de datos de un mensaje y su redundancia.

La información que transmiten los datos puede ser de tres tipos:

Page 19: Teoría de la información.docx

1. Redundante: información repetitiva o predecible. 2. Irrelevante: información que no podemos apreciar y cuya eliminación

por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16.000/20.000 Hz s, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores.

3. Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal.

Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información:

1. Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante).

2. Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante.

3. Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).

Diferencias entre compresión con y sin pérdida [editar]

El objetivo de la codificación es siempre reducir el tamaño de la información, intentando que esta reducción de tamaño no afecte al contenido. No obstante, la reducción de datos puede afectar o no a la calidad de la información:

Compresión sin pérdida: los datos antes y después de comprimirlos son exactos en la compresión sin pérdida. En el caso de la compresión sin pérdida una mayor compresión solo implica más tiempo de proceso. El bitrate siempre es variable en la compresión sin pérdida. Se utiliza principalmente en la compresión de texto.

Un algoritmo de compresión con pérdida puede eliminar datos para reducir aún más el tamaño, con lo que se suele reducir la calidad. En la compresión con pérdida el bit rate puede ser constante o variable. Hay que tener en cuenta que una vez realizada la compresión, no se puede obtener la señal original, aunque sí una aproximación cuya semejanza con la original

Page 20: Teoría de la información.docx

dependerá del tipo de compresión. Se utiliza principalmente en la compresión de imágenes, videos y sonidos.

Véase también [editar]

Algoritmo de compresión con pérdida Wavelets ZIP RAR CAB LHA DGCA GCA Bzip2 gzip 7z

Enlaces externos [editar]

Fundamentos de la compresión de imágenes Procesamiento Digital de Señales Acústicas utilizando Wavelets. Categorías: Compresión de datos | Procesado digital de señal

Artículo Discusión Editar Historial

Registrarse/EntrarNavegación

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donativos

Buscar

Page 21: Teoría de la información.docx

  Herramientas

Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Versión para imprimir Enlace permanente Citar este artículo

Otros idiomas

Alemannisch Беларуская (тарашкевіца) Bosanski Català Česky Dansk Deutsch English Eesti Suomi Français עברית Hrvatski Magyar Bahasa Indonesia Italiano 日本語 한국어 Lietuvių Bahasa Melayu Nederlands Polski Português Русский Simple English

Ir Buscar

Page 22: Teoría de la información.docx

Slovenčina Svenska ไทย 中文

Page 23: Teoría de la información.docx

Código fuente(Redirigido desde Códigos fuente)

El código fuente puede definirse:

Un conjunto de líneas que conforman un bloque de texto, escrito según las reglas sintácticas de algún lenguaje de programación destinado a ser legible por humanos.

Un Programa en su forma original, tal y como fue escrito por el programador, no es ejecutable directamente por el computador, debe convertirse en lenguaje de maquina mediante compiladores, ensambladores o intérpretes.

Normalmente está destinado a ser traducido a otro código, llamado código objeto, ya sea lenguaje máquina nativo para ser ejecutado por una computadora o bytecode para ser ejecutado por un intérprete.

Este proceso se denomina compilación y permite la realización de programas.

El proceso de formateado del código fuente para ayudar a su legibilidad se denomina estilo de programación.

Etapas [editar]

Etapas en la compilación:

A diferencia del código objeto, el código fuente es texto simple, capaz de ser leído por cualquier editor de textos. En él están escritos los pasos que deberá realizar la computadora. Tener el código fuente es vital si se necesita modificar el programa.

Otras acepciones [editar]

El término de código fuente también se usa para referenciar el código de otros lenguajes, como los de marcado de textos (como el HTML) o de raytracers (como los ficheros POV de POV-Ray), que posteriormente son interpretados o renderizados por un programa especializado, en el caso de HTML por el navegador web, para su lectura o visualización.

Page 24: Teoría de la información.docx

Obsérvese que aunque el lenguaje HTML puede contener embebido código fuente en lenguajes como JavaScript, en sí mismo no es un lenguaje ejecutable, al igual que los ficheros POV. Es por ello que estas acepciones son una generalización del término código fuente, el cual nace con el significado de fuente para la generación del código objeto o ejecutable.

Enlaces externos [editar]

Wikcionario tiene una entrada sobre código fuente. Categoría: Partes de programas

Editando “Códigos no-singulares” 

Page 25: Teoría de la información.docx

Wikipedia no tiene una página con el nombre exacto de «Códigos no-singulares».

Puedes buscar páginas sobre «Códigos no-singulares», ver todas las páginas desde este título o solicitar su creación.

Para comenzar a crear un artículo, introduce la información en la caja situada debajo.

Si has seguido un enlace rojo, no estás obligado a introducir un texto aquí. Puedes volver atrás y seguir en el artículo anterior.

Puedes pedir información en Consultas, porque si lo haces aquí tu petición será borrada sin previo aviso.

Si quieres hacer pruebas, por favor, utiliza la Zona de pruebas. Si ya habías creado la página con este nombre, limpia el caché de tu

navegador. También puede haber sido borrada.

Busca «Códigos no-singulares» en uno de los proyectos hermanos de Wikipedia:

Wikcionario (diccionario)

Wikilibros (tutoriales/manuales)

Wikiquote (citas)

Wikisource (biblioteca)

Wikinews (noticias)

Wikiversity (contenido académico)

Commons (imágenes y multimedia)

[Ayuda]

Atención: está creando una página que ha sido borrada previamente.

Debería considerar si es apropiado continuar editando esta página. Consulte a continuación el registro de borrados:

11:44 8 sep 2006 Er Komandante (discusión | contribuciones) borró "Códigos no-singulares" (infraesbozo. el contenido era: «{{esbozo|Teoría de la Información}}Los códigos no-singulares son simplemente los que usan de criterio que todas las palabras sean distintas.»)

17:25 3 abr 2006 Airunp (discusión | contribuciones) borró "Códigos no-singulares" (el contenido era: «Un código es no singular si todas sus palabras son diferentes.» (único autor: 201.235.9.23))

Page 26: Teoría de la información.docx

13:35 10 nov 2005 Sanbec (discusión | contribuciones) borró "Códigos no-singulares" (el contenido era: «Códigos cuyo alfabeto contiene una palabra código distinta para cada palabra fuente.{{esbozo de|matemáticas}}»)

Estás a punto de editar un artículo sin haberte registrado como usuario. Esto hará que quede registrada públicamente tu dirección IP como autora de la edición. Si quieres puedes crearte una cuenta de usuario.

Confirmo que mis cambios no violan ninguna de las políticas de derechos de autor y que están basados en fuentes verificables.

Resumen:

Cancelar | Ayuda de edición (se abrirá en una ventana nueva)

Caracteres especiales: Á á É é Í í Ó ó Ú ú Ü ü Ñ ñ · ¡ ¿ «» - † º ª · Â Å â Ĉ ĉ Ê ê Ŝ ŝ · Č č Ć ć

Đ đ Š š Ž ž · Ä ä Ë ë Ö ö Ü ü · Ç ç · Ā ā å Ē ē Ī ī Ō ō Ū ū · ß · Ð ð Þ þ · Æ æ Œ œ · – — · ~ | °

§ → · ≈ ± − × ¹ ² ³ · ‘ “ ’ ” · £ € · Α α Β β Γ γ Δ δ · Ε ε Ζ ζ Η η Θ θ · Ι ι Κ κ Λ λ Μ μ · Ν ν Ξ ξ Ο ο Π

20080102232409 20080102232410

Grabar la página Mostrar previsualización Mostrar cambios

Page 27: Teoría de la información.docx

π · Ρ ρ Σ σ ς Τ τ Υ υ · Φ φ Χ χ Ψ ψ Ω ω ø Ø

[] [[]] {{}} {{{}}} · —~~~~ · [[Categoría:]] · · #REDIRECT [[]] · <gallery>

Advertencia sobre derechos de autorTodas las contribuciones a Wikipedia se publican bajo la Licencia de documentación libre GNU. Al contribuir, aceptas que otras personas distribuyan y modifiquen libremente tus aportaciones. Si eso no es lo que deseas, no pongas tus contribuciones aquí.

Además, al publicar tu trabajo nos aseguras que estás legalmente autorizado a disponer de ese texto, sea porque eres el

Códigos unívocamente decodificables

Este artículo tiene contenido demasiado complejo para lectores que no son expertos en el tema. Si tienes capacidad, por favor edítalo, contribuye a hacerlo más accesible para el público general, sin eliminar los detalles técnicos que interesan a los especialistas.

Page 28: Teoría de la información.docx

Son Códigos no-singulares en donde además la longitud entre las palabras usadas puede variar.

Una forma de calcular la mejor longitud media es mediante la Inecuación de Kraft. La idea básica es asignar longitudes mayores a las palabras con menor probabilidad.

Por definición: Código cuya extensión es no-singular. Sea A un alfabeto fuente y b un alfabeto código. Se llama función codificadora a cualquier función. f: A+ -> B+. El código correspondiente es Unívocamente Decodificable (UD) si f es inyectiva. Hace parte del area de la matemática discreta y los algoritmos computacionales.

El contenido de esta página es un esbozo sobre matemática. Ampliándolo ayudarás a mejorar Wikipedia.

Puedes ayudarte con las wikipedias en otras lenguas.

Para aclarar todo esto, debemos ir por pasos: Códigos Unívocamente Decodificables 1. Un codigo es una asignación de palabras codigo wi, a una fuente de información ya sea de memoria nula o con memoria (fuente de Markov). Estas palabras codigo wi, no son mas que combinaciones de simbolos de una alfabeto T. Por ejemplo: si tenemos la siguiente fuente de memoria nula. S = {s1,s2,s3} y tenemos el siguiente alfabeto T = {0,1}, podemos asignar el siguiente codigo a S, C = {0,10,11}. Cuyo codigo es U.D.

2. Pero que quiere decir, con exactitud codigo Unívocamente Decodificable. Significa que cualquier codificación que se realize con ese codigo no debe ser ambigua es decir, un posible mensaje de la fuente o cualquier otro, tenga una y solo una interpretación , es decir carezca de ambigüedad.

3. En efecto el Teorema de Patterson-Sardinas nos ayudan a verificar si un codigo es U.D. o no, pero aqui debemos notar que para demostrar que un codigo no es unívocamente decodificable, bastaría con encontrar una cadena que sea ambigua.

Enlaces externos [editar]

Page 29: Teoría de la información.docx

Códigos Unívocamente Decodificables - Una aplicación en línea que permite identificar un código unívocamente decodificable (UD) usando el teorema de Sardinas-Patterson.

crearte una cuenta de usuario

Categorías: Wikipedia:Artículos demasiado complejos | Wikipedia:Esbozo matemática

Artículo Discusión Editar Historial

Registrarse/EntrarNavegación

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donativos

Buscar

  Herramientas

Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Versión para imprimir Enlace permanente Citar este artículo

Ir Buscar

Page 30: Teoría de la información.docx

Editando “Extensión de código” 

Esta página ha sido borrada anteriormente en una consulta de borrado según las políticas de borrado.

Wikipedia no tiene una página con el nombre exacto de «Extensión de código».

Puedes buscar páginas sobre «Extensión de código», ver todas las páginas desde este título o solicitar su creación.

Para comenzar a crear un artículo, introduce la información en la caja situada debajo.

Si has seguido un enlace rojo, no estás obligado a introducir un texto aquí. Puedes volver atrás y seguir en el artículo anterior.

Puedes pedir información en Consultas, porque si lo haces aquí tu petición será borrada sin previo aviso.

Si quieres hacer pruebas, por favor, utiliza la Zona de pruebas. Si ya habías creado la página con este nombre, limpia el caché de tu

navegador. También puede haber sido borrada. Consulta la votación de borrado.

Busca «Extensión de código» en uno de los proyectos hermanos de Wikipedia:

Wikilibros Wikinews Wikiversity

Page 31: Teoría de la información.docx

Wikcionario (diccionario) (tutoriales/manuales) Wikiquote

(citas)Wikisource (biblioteca) (noticias) (contenido

académico)

Commons (imágenes y multimedia)

[Ayuda]

Atención: está creando una página que ha sido borrada previamente.

Debería considerar si es apropiado continuar editando esta página. Consulte a continuación el registro de borrados:

12:19 11 oct 2005 Rsg (discusión | contribuciones) borró "Extensión de código" (Ver votación de borrado en Wikipedia:Consultas de borrado/Extensión de código)

Estás a punto de editar un artículo sin haberte registrado como usuario. Esto hará que quede registrada públicamente tu dirección IP como autora de la edición. Si quieres puedes crearte una cuenta de usuario.

Confirmo que mis cambios no violan ninguna de las políticas de derechos de autor y que están basados en fuentes verificables.

Resumen:

20080102232455 20080102232455

Page 32: Teoría de la información.docx

Cancelar | Ayuda de edición (se abrirá en una ventana nueva)

Caracteres especiales: Á á É é Í í Ó ó Ú ú Ü ü Ñ ñ · ¡ ¿ «» - † º ª · Â Å â Ĉ ĉ Ê ê Ŝ ŝ · Č č Ć ć

Đ đ Š š Ž ž · Ä ä Ë ë Ö ö Ü ü · Ç ç · Ā ā å Ē ē Ī ī Ō ō Ū ū · ß · Ð ð Þ þ · Æ æ Œ œ · – — · ~ | °

§ → · ≈ ± − × ¹ ² ³ · ‘ “ ’ ” · £ € · Α α Β β Γ γ Δ δ · Ε ε Ζ ζ Η η Θ θ · Ι ι Κ κ Λ λ Μ μ · Ν ν Ξ ξ Ο ο Π

π · Ρ ρ Σ σ ς Τ τ Υ υ · Φ φ Χ χ Ψ ψ Ω ω ø Ø

[] [[]] {{}} {{{}}} · —~~~~ · [[Categoría:]] · · #REDIRECT [[]] · <gallery>

Advertencia sobre derechos de autorTodas las contribuciones a Wikipedia se publican bajo la Licencia de documentación libre GNU. Al contribuir, aceptas que otras personas distribuyan y modifiquen libremente tus aportaciones. Si eso no es lo que deseas, no pongas tus contribuciones aquí.

Además, al publicar tu trabajo nos aseguras que estás legalmente autorizado a disponer de ese texto, sea porque eres el titular de los derechos de autor o por haberlo obtenido de una fuente bajo una licencia compatible o en el dominio público. Recuerda que la inmensa mayoría del contenido disponible en Internet no cumple estos requisitos; lee Wikipedia:Derechos de autor para más detalles.

¡No uses sin permiso escritos con

Grabar la página Mostrar previsualización Mostrar cambios

Page 33: Teoría de la información.docx

Detección y corrección de errores(Redirigido desde Control de errores)

En matemáticas, computación y teoría de la información, la detección y corrección de errores es una importante práctica para el mantenimiento e integridad de los datos a través de canales ruidosos y medios de almacenamiento poco confiables.

Tabla de contenidos

[ocultar]

1 Introducción

2 Tipo de códigos detectores

2.1 Paridad simple (paridad horizontal)

2.2 Paridad cruzada (paridad horizontal-vertical)

2.3 Códigos de redundancia cíclica también llamados CRC

2.4 Suma de comprobación

2.5 Distancia de Hamming basada en comprobación

3 Lista de los métodos de corrección y detección de errores

4 Enlaces externos

Introducción [editar]

La comunicación entre varias computadoras produce continuamente un movimiento de datos, generalmente por canales no diseñados para este propósito (línea telefónica), y que introducen un ruido externo que produce errores en la transmisión.

Por lo tanto, debemos asegurarnos que si dicho movimiento causa errores, éstos puedan ser detectados. El método para detectar y corregir errores es incluir en los bloques de datos transmitidos bits adicionales denominados redundancia.

Se han desarrollado dos estrategias básicas para manejar los errores:

Page 34: Teoría de la información.docx

Incluir suficiente información redundante en cada bloque de datos para que se puedan detectar y corregir los bits erróneos. Se utilizan códigos de corrección de errores.

Incluir sólo la información redundante necesaria en cada bloque de datos para detectar los errores. En este caso el número de bits de redundancia es menor. Se utilizan códigos de detección de errores.

Si consideramos un bloque de datos formado por m bits de datos y r de redundancia, la longitud final del bloque será n, donde n = m + r.

Tipo de códigos detectores [editar]

Paridad simple (paridad horizontal) [editar]

Consiste en añadir un bit de más a la cadena que queremos enviar, y que nos indicará si el número de unos (bits puestos a 1) es par o es impar. Si es par incluiremos este bit con el valor = 0, y si no es así, lo incluiremos con valor = 1.

Ejemplo de generación de un bit de paridad simple:

Queremos enviar la cadena “1110100”:1º Contamos la cantidad de unos que hay: 4 unos2º El número de unos es par por tanto añadimos un bit con valor = 03º La cadena enviada es 11101000

El receptor ahora, repite la operación de contar la cantidad de “unos” que hay (menos el último bit) y si coincide, es que no ha habido error.

Problemas de este método:

Hay una alta probabilidad de que se cuelen casos en los que ha habido error, pero se ha pasado, como ocurre si se cambian dos números en la transmisión en vez de uno.

Paridad cruzada (paridad horizontal-vertical) [editar]

Para mejorar un poco el método anterior, se realiza una paridad que afecte tanto a los bits de cada cadena o palabra como a un conjunto de todos ellos. Siempre se utilizan cadenas relativamente cortas para evitar que se cuelen muchos errores.

Page 35: Teoría de la información.docx

Para ver más claro este método, se suelen agrupar los bits en una matriz de N filas por K columnas, luego se realizan todas las paridades horizontales por el método anterior, y por último, se hace las misma operación de calcular el número de unos, pero ahora de cada columna.

La probabilidad de encontrar un solo error es la misma, pero en cambio, la probabilidad de encontrar un número par errores ya no es cero, como en el caso anterior. Aun así, existen todavía una gran cantidad de errores no detectables

Un ejemplo de paridad cruzada (o de código geométrico)

1º Tenemos este código para transmitir: 11001011110101100101110101102º Agrupamos el código en cada una de las palabras, formando una matriz de N x K:

1100101111010110010111010110

3º Añadimos los bits de paridad horizontal:

1100101 01110101 11001011 01010110 0

4º Añadimos los bits de paridad vertical:

1100101 01110101 11001011 01010110 0

0001101 1

Una vez creada la matriz, podemos enviar ésta por filas, o por columnas. Enviando las palabras por columnas aumentamos la posibilidad de corregir una palabra que haya sufrido un error de ráfaga (errores que afectan a varios bits consecutivos, debidos a causas generalmente electrónicas, como chispazos, y que harían que se perdiera toda una palabra completa)

Page 36: Teoría de la información.docx

Códigos de redundancia cíclica también llamados CRC [editar]

Intentando mejorar los códigos que sólo controlan la paridad de bit, aparecen los códigos cíclicos. Estos códigos utilizan la aritmética modular para detectar una mayor cantidad de errores. Y para facilitar los cálculos se trabaja (aunque solo teóricamente con polinomios).

La finalidad de este método es crear una parte de redundancia la cual se añade al final del código a transmitir (como en los métodos de paridad) que siendo la más pequeña posible, detecte el mayor número de errores que sea posible.

Pero además de esto, debe ser un método sistemático, es decir, que con un mismo código a transmitir, (y un mismo polinomio generador) se genere siempre el mismo código final.

El polinomio generador: es un polinomio elegido previamente, y que tiene como propiedad minimizar la redundancia. Suele tener una longitud de 16 bits, para mensajes de 128 bytes, lo que índica que la eficiencia es buena. Ya que solo incrementa la longitud en un aproximado 1,6%

(16bits / (128bytes * 8bitsporbyte)) * 100 = 1,5625

Un ejemplo de polinomio generador usado normalmente en las redes WAN es: g(x) = x16 + x12 + x5 + 1

Los cálculos que realiza el equipo transmisor para calcular su CRC son:

1. Añade tantos ceros por la derecha al mensaje original como el grado del polinomio generador

2. Divide el mensaje con los ceros incluidos entre el polinomio generador 3. El resto que se obtiene en la división se suma al mensaje con los ceros

incluidos 4. Se envía el resultado obtenido

Estas operaciones generalmente son incorporadas en el hardware para que pueda ser calculado con mayor rapidez, pero en la teória se utilizan los polinomios para facilitar los calculos.

Page 37: Teoría de la información.docx

Ejemplo de obtención del CRC:

Datos:Mensaje codificado en binario: 1101010Polinomio generador: x4 + x + 1

Operaciones:

1º Obtener el polinomio equivalente al mensaje: x6 + x5 + x3 + x

2º Multiplicar el mensaje por x4 (añadir 4 ceros por la derecha): x10 + x9 + x7 + x4

3º Dividir en binario el mensaje por el polinomio generador y sacar el resto: x2 + 1

4º Restar el mensaje con el resto (en binario también): x10 + x9 + x7 + x4 + x3 + x1 + 1

5º Transmitir el mensaje

El equipo receptor debe comprobar el código CRC para comprobar si se han producido o no errores.

Ejemplo de los cálculos del receptor:

1º Mediante el protocolo correspondiente acuerdan el polinomio generador2º Divide el código recibido entre el polinomio generador3º comprueba el resto de dicha operación

3.1 Si el resto es cero, no se han producido errores 3.2 Procesar el mensaje

3.1 Si el resto es distinto de cero, significa que se han producido errores 3.2 Reenviar el mensaje

3.2 Intentar corregir los errores mediante los códigos correctores

En resumen, este método requiere de un polinomio generador, que elegido correctamente, puede llegar a detectar gran cantidad de errores:

Errores simples: todos Errores dobles: todos

Page 38: Teoría de la información.docx

Errores en las posiciones impares de los bits: todos Errores en ráfagas con una longitud menor que el grado del polinomio

generador: todos Otras ráfagas: un porcentaje elevado, y cercano al 100% Suma de comprobación [editar]

Es un método sencillo pero eficiente sólo con cadenas de palabras de una longitud pequeña, es por esto que se suele utilizar en cabeceras de tramas importantes u otras cadenas importantes y en combinación con otros métodos.

Funcionalidad: consiste en agrupar el mensaje a transmitir en cadenas de una longitud determinada L no muy grande, de por ejemplo 16 bits. Considerando a cada cadena como un número entero numerado según el sistema de numeración 2L − 1. A continuación se suma el valor de todas las palabras en las que se divide el mensaje, y se añade el resultado al mensaje a transmitir, pero cambiado de signo.

Con esto, el receptor lo único que tiene que hacer es sumar todas las cadenas, y si el resultado es 0 no hay errores.

Ejemplo:

Mensaje 101001110101

1º Acordar la longitud de cada cadena: 3

2º Acordar el sistema de numeración: 23 − 1 = 7

3º Dividir el mensaje: 101 001 110 101

4º Corresponder a cada cadena con un entero: 5 1 6 5

5º Sumar todos los valores y añadir el número cambiado de signo: -17

6º Enviar 5 1 6 5 -17 codificado en binarioEl receptor:

1º Suma todos los valores si = 0 procesa el mensaje sino se ha producido un error.

Page 39: Teoría de la información.docx

Este método al ser más sencillo es óptimo para ser implementado en software ya que se puede alcanzar velocidades de cálculo similares a la implementación en hardware

Distancia de Hamming basada en comprobación [editar]

hiper-cubo binario de dimensión cuatro

Si queremos detectar d bit erróneos en una palabra de n bits, podemos añadir a cada palabra de n bits d+1 bits predeterminados al final, de forma que quede una palabra de n+d+1 bits con una distancia mínima de Hamming de d+1. De esta manera, si uno recibe una palabra de n+d+1 bits que no encaja con ninguna palabra del código (con una distancia de Hamming x <= d+1 la palabra no pertenece al código) detecta correctamente si es una palabra errónea. Aún más, d o menos errores nunca se convertirán en una palabra válida debido a que la distancia de Hamming entre cada palabra válida es de al menos d+1, y tales errores conducen solamente a las palabras inválidas que se detectan correctamente. Dado un conjunto de m*n bits, podemos detectar x <= d bits errores correctamente usando el mismo método en todas las palabras de n bits. De hecho, podemos detectar un máximo de m*d errores si todas las palabras de n bits son transmitidas con un máximo de d errores.

Ejemplo:

Palabras a enviar:

1: 0000012: 0000013: 000010

Codificadas con distancia mínima de Hamming = 2:

Page 40: Teoría de la información.docx

000001 0000000001 0011000010 1100

Si las palabras recibidas tienen una distancia de Hamming < 2Son palabras incorrectas

Lista de los métodos de corrección y detección de errores [editar]

Dígito verificador FEC Forward Error Correction Código Binario de Golay Código Hamming Bit de paridad Reed-Solomon

Enlaces externos [editar]

Algoritmos de detección y corrección de errores Otros códigos utilizados Apuntes de Transmisión de datos Categorías: Detección y corrección de errores | Protocolos

Artículo Discusión Editar Historial

Registrarse/EntrarNavegación

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donativos

Page 41: Teoría de la información.docx

Buscar

  Herramientas

Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Versión para imprimir Enlace permanente Citar este artículo

Otros idiomas

Беларуская (тарашкевіца) Català Deutsch English Français עברית 日本語 한국어 Português Русский ไทย

Ir Buscar

Page 42: Teoría de la información.docx
Page 43: Teoría de la información.docx