Resultados de la búsqueda

Ir a la navegación Ir a la búsqueda
Ver (20 anteriores | ) (20 | 50 | 100 | 250 | 500).
  • …basado en una distribución de probabilidad dada <math>q</math>, más que en la verdadera distribución <math>p</math>. …os distribuciones <math>p</math> y <math>q</math> sobre el mismo [[espacio de probabilidad]] se define como sigue: …
    1 kB (227 palabras) - 01:37 11 jul 2022
  • …ma. También es definida como la suma de [[Exponente de Lyapunov|exponentes de Liapunov]]. …rales]] de valores de determinada variable, la cual se considera poseedora de significado. …
    1 kB (200 palabras) - 11:49 14 sep 2019
  • …' es una extensión del concepto de [[Entropía (información)|entropía de la información]] a procesos donde intervienen varias variables aleatorias no necesariament …\le i \le m \}</math>, se define de manera natural la entropía condicional de <math>\scriptstyle X</math> dado <math>\scriptstyle A</math> como: …
    2 kB (329 palabras) - 23:22 13 dic 2022
  • …ntras se mantienen conjuntos de propiedades del sistema especificado, como la [[energía]]. …tion}}</ref> Por lo tanto, la entropía de configuración es la misma que la entropía macroscópica . …
    3 kB (587 palabras) - 17:32 11 sep 2022
  • …'', la información que se revela con el resultado está dada por la función de Hartley donde {{Absf|''A''}} denota la [[cardinalidad]] de ''A''. …
    4 kB (716 palabras) - 07:11 11 jul 2019
  • …e una variable aleatoria, <math>X</math>, debido al conocimiento del valor de otra variable aleatoria <math>Y</math>.<ref>Dan C. Marinescu, Gabriela M.… …rencia de la [[distribución conjunta]] (<math>P(X,Y)</math>) y el producto de las [[distribución marginal|distribuciones marginales]] (<math>P(X)P(Y)</ma …
    7 kB (1240 palabras) - 09:36 21 may 2024
  • …titulo = [[Unidades de medida|Unidades]] de<br />[[Unidades de información|Información]] *[[hartley (unidad)|hartley]], [[ban (información)|ban]] o [[dit (información)|dit]] ([[Decimal|base 10]]) …
    5 kB (713 palabras) - 06:42 17 ene 2023
  • …2).jpg|miniaturadeimagen|388x388px|Desigualdad en [[Sudáfrica]]: Medida de entropía generalizada]] …ía, lo que ha llevado a utilizar la entropía generalizada para cuantificar la biodiversidad.<ref>{{Cita publicación|título=The measurement of diversity… …
    4 kB (648 palabras) - 19:43 7 ene 2025
  • …pía]] estándar de [[Boltzmann]]. Es útil para estudiar los intercambios de información entre sistemas que no están en equilibrio. …ecifican las condiciones macroscópicas, que pueden proceder de la teoría o de datos experimentales. …
    7 kB (1180 palabras) - 22:50 29 dic 2023
  • …u.co/~lctorress/tgs/Tgs004.pdf|idioma=español|fechaacceso=19 de septiembre de 2015}}</ref> …plo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía. …
    9 kB (1640 palabras) - 21:03 4 ene 2025
  • …a cuántica|cuánticas]] que dan una descripción más detallada de su régimen de validez. La ecuación de Sackur–Tetrode recibe su nombre en honor de [[Hugo Martin Tetrode]]<ref>H. Tetrode (1912) "Die chemische Konstante der …
    6 kB (969 palabras) - 16:46 15 ago 2023
  • …sistema físico que tiene un tamaño y energía finitos, y que una [[máquina de Turing]] con dimensiones físicas finitas y memoria ilimitada no es físicame …e un [[Esfera|volumen esférico]] a la entropía de un [[agujero negro]] con la misma superficie. …
    5 kB (881 palabras) - 18:07 9 jun 2022
  • …ef>{{Cita DEI|capacidad-de-canal|capacidad de canal|fechaacceso=11 de mayo de 2014}}</ref> …un canal, una es para canales de tiempo continuo y la otra es para canales de tiempo discreto. …
    7 kB (1200 palabras) - 09:09 25 oct 2024
  • …]. La última definición es usada frecuentemente en la comparación empírica de modelos probabilísticos. == Perplejidad de una distribución de probabilidad == …
    5 kB (777 palabras) - 01:43 27 may 2023
  • …trópica'''" es un método de codificación sin perdidas que es independiente de las características específicas del medio. Este método se basa en un conoci …a una fuente lo interesante es la información media que genera, esto es la entropía. …
    4 kB (620 palabras) - 11:27 19 jul 2024
  • …mación la distribución estadística menos sesgada será aquella en que menos información extrínseca al problema contenga. …ibución de probabilidad]] y las ''j'' condiciones intrínsecas al problema, la distribución menos sesgada para los N microestados cumplirá que: …
    8 kB (1439 palabras) - 22:46 8 ene 2023
  • El '''algoritmo ID3''' es utilizado dentro del ámbito de la [[inteligencia artificial]]. …el que uno de ellos (el atributo a clasificar) es el objetivo, el cual es de tipo [[Dato binario|binario]] (positivo o negativo, sí o no, válido o invál …
    5 kB (737 palabras) - 19:47 12 nov 2024
  • …es y problemas inversos). La termodinámica MaxEnt comenzó con dos trabajos de [[Edwin Thompson Jaynes|Edwin T. Jaynes]] publicados en el Physical Review == Entropía máxima de Shannon == …
    9 kB (1450 palabras) - 07:39 10 may 2023
  • …beispiel sarah geht segeln.png|miniaturadeimagen|Extracto alemán del árbol de decisión C4.5.]] …del [[algoritmo ID3]] desarrollado anteriormente por Quinlan. Los árboles de decisión generados por C4.5 pueden ser usados para clasificación, y por est …
    6 kB (957 palabras) - 13:46 28 dic 2024
  • …to por una [[Estado mixto|matriz densidad]] <math>\rho</math>, la entropía de von Neumann<ref name="bengtsson301">{{Cita libro|last1 = Bengtsson|first1… …ritmo natural de matrices]]. Si <math>\rho</math> está escrito en términos de sus [[Vector propio y valor propio|autovectores]] <math>|1\rangle</math>,… …
    13 kB (2162 palabras) - 15:46 6 dic 2024
Ver (20 anteriores | ) (20 | 50 | 100 | 250 | 500).