Resultados de la búsqueda

Ir a la navegación Ir a la búsqueda
Ver (20 anteriores | ) (20 | 50 | 100 | 250 | 500).
  • …ommunication|work=Bell Labs Technical Journal|date=July 1948|author=Claude Shannon}}.</ref> …ón con [[ruido (comunicación)|ruido.]] Este enunciado publicado por Claude Shannon el 1948 se basó sobre trabajos anteriores de [[Harry Nyquist]] y Ralph Hart …
    7 kB (1110 palabras) - 14:28 20 oct 2023
  • …ov]], después de que [[Teoria de la información|las tesis]] de [[Claude E. Shannon]] fuera consideradas demasiado orientadas a la tecnología. …
    1 kB (200 palabras) - 11:49 14 sep 2019
  • …e Shannon}}.</ref> así como el significado operacional de la [[entropía de Shannon]]. …relación de codificación arbitrariamente cerca del valor de la entropía de Shannon. …
    10 kB (1719 palabras) - 08:14 12 mar 2024
  • …do por [[Claude Elwood Shannon|C. E. Shannon]].<ref name="Shannon_1">C. E. Shannon, "Communication Theory of Secrecy Systems"</ref> …ad y por tanto es '''incondicionalmente seguro'''. [[Claude Elwood Shannon|Shannon]] usaba el término '''secreto ideal''' para describir sistemas que no logra …
    19 kB (3200 palabras) - 11:00 25 feb 2025
  • …na ley no empírica, pero más precisa, derivada de los trabajos de [[Claude Shannon]] fue descubierta por [[Benoît Mandelbrot]]{{sinreferencias}}. …
    2 kB (363 palabras) - 16:03 5 ene 2024
  • En [[teoría de la información]], el '''teorema de Shannon-Hartley''' es una aplicación del teorema de codificación para canales con… Él establece la capacidad del canal de Shannon, una [[cota superior]] que establece la máxima cantidad de datos digitales …
    19 kB (3320 palabras) - 18:33 6 nov 2024
  • …la formulación del [[teorema de muestreo de Nyquist–Shannon]] por [[Claude Shannon]] en 1949. La fórmula de interpolación se deriva en el artículo del teorema [[Nyquist–Shannon sampling theorem]], que señala que también se puede expresar como la [[Conv …
    5 kB (874 palabras) - 15:18 9 abr 2024
  • …na ley no empírica, pero más precisa, derivada de los trabajos de [[Claude Shannon]] fue descubierta por [[Benoît Mandelbrot]]. …
    3 kB (481 palabras) - 23:22 22 jul 2024
  • …físico [[Harry Nyquist]], compañero en los [[Laboratorios Bell]], [[Claude Shannon]] demostró en 1949 que la capacidad teórica máxima de un [[canal de comunic * [[Primer teorema de Shannon]] (Teorema de codificación de fuente) …
    7 kB (1200 palabras) - 09:09 25 oct 2024
  • …mbién conocido como '''teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon''' o bien '''teorema de Nyquist''', es un [[teorema]] fundamental de la [[t …ion theory''), y fue demostrado formalmente por [[Claude Shannon|Claude E. Shannon]] en 1949 (''Communication in the presence of noise''). …
    16 kB (2631 palabras) - 12:07 11 dic 2024
  • que es la exponencial de la [[entropía de Shannon]] calculada con logaritmos naturales (véase más arriba). En otros ámbitos, == Índice de Shannon == …
    23 kB (3743 palabras) - 17:08 10 feb 2025
  • …ión''', es una propuesta teórica presentada por [[Claude Shannon|Claude E. Shannon]] y [[Warren Weaver]] a finales de la década de 1940. Esta teoría está rela …ría matemática de la comunicación'' ([http://www.essrl.wustl.edu/~jao/itrg/shannon.pdf texto completo en inglés]). En esta época se buscaba utilizar de manera …
    24 kB (4100 palabras) - 10:17 9 ene 2025
  • …Esta es la llamada '''Desigualdad pesimista''' de [[Claude Elwood Shannon|Shannon]]. Si asumimos que cada clave y cada texto plano tiene la misma probabilida …s el sistema de seguridad puede no ser seguro. La desigualdad pesimista de Shannon puede ser interpretado con el caso especial donde S sucede y donde el secre …
    9 kB (1500 palabras) - 18:10 21 sep 2023
  • La teoría de la información, desarrollada por [[Claude E. Shannon]] durante la Segunda Guerra Mundial, define la noción de la capacidad del… …oporción de [[ruido]] de S/N es el [[teorema de Shannon-Hartley|Teorema de Shannon–Hartley]]: …
    7 kB (1307 palabras) - 17:20 13 jul 2019
  • …conseguido la [[Confusión y difusión|difusión]] de [[Claude Elwood Shannon|Shannon]]. …
    9 kB (1292 palabras) - 17:19 25 feb 2025
  • Esta cantidad fue definida y analizada por [[Claude Shannon]] en su trabajo seminal, "[[Una teoría matemática de la comunicación|A Math …
    7 kB (1240 palabras) - 09:36 21 may 2024
  • …an solucionó la mayor parte de los errores en el algoritmo de codificación Shannon-Fano. La solución se basaba en el proceso de construir el árbol de abajo a Tal como definió [[Claude Elwood Shannon|Shannon (1948)]], la cantidad de información ''h'' (en bits) de cada símbolo ''a''< …
    25 kB (4218 palabras) - 11:44 10 dic 2024
  • …a de la información''' y '''entropía de Shannon''' (en honor a [[Claude E. Shannon]]), mide la incertidumbre de una [[fuente de información]]. …la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 ''[[Una teoría matemática de la comunicación]]''.<re …
    22 kB (3970 palabras) - 23:15 27 feb 2025
  • …las ideas de la aplicación de la [[teoría de la información]] de [[Claude Shannon]]. La traducción automática estadística fue reintroducida en 1991 por inves …55), incluyendo las ideas de aplicar la teoría de la información de Claude Shannon. Su retorno a escena se produce en 1991, con el sistema ''CANDIDE'', desarr …
    17 kB (2941 palabras) - 08:57 13 dic 2023
  • …arles Sanders Peirce]], [[Norman Johnson]], [[Claude Elwood Shannon|Claude Shannon]], [[Ivan Shestakov]] …ento de la práctica de circuitos digitales de diseño, y Boole, a través de Shannon y Shestakov, en la base teórica para la era digital. …
    31 kB (4878 palabras) - 10:28 17 nov 2024
Ver (20 anteriores | ) (20 | 50 | 100 | 250 | 500).