π
<-

mauricio


File hierarchy

 Downloads
 Files created online(26684)
 TI-Nspire
(19815)

 nCreator(4711)

DownloadTélécharger


LicenceLicense : Non spécifiée / IncluseUnspecified / Included

 TéléchargerDownload

Actions



Vote :

ScreenshotAperçu


Informations

Catégorie :Category: nCreator TI-Nspire
Auteur Author: mauricinho
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 4.77 Ko KB
Mis en ligne Uploaded: 10/07/2025 - 04:23:01
Uploadeur Uploader: mauricinho (Profil)
Téléchargements Downloads: 4
Visibilité Visibility: Archive publique
Shortlink : https://tipla.net/a4790817

Description 

Fichier Nspire généré sur TI-Planet.org.

Compatible OS 3.0 et ultérieurs.

<<
Sistemas de Comunicaciones  Ayudantía Ejercicios Introducción La entropía es uno de los conceptos más fundamentales en la teoría de la información y los sistemas de comunicaciones. Desarrollada por Claude Shannon en 1948, esta medida cuantifica la incertidumbre o aleatoriedad presente en un conjunto de datos o mensajes. Fundamentos Teóricos ¿Qué es la Entropía? Imaginemos que estamos esperando recibir un mensaje. Si sabemos de antemano exactamente qué mensaje vamos a recibir, no hay incertidumbre y por tanto no necesitamos información adicional para conocer el contenido. Por el contrario, si el mensaje puede ser cualquiera de muchas posibilidades diferentes, existe gran incertidumbre. La entropía mide precisamente esta incertidumbre promedio. Matemáticamente, para una variable aleatoria discreta X que puede tomar valores x, x‚, ..., x™ con probabilidades p, p‚, ..., p™ respectivamente, la entropía de Shannon se define como:  H(X) =  (i=1 hasta n) [pb · log‚(pb)] Propiedades Fundamentales No Negatividad: H(X) e 0 Máximo para Distribución Uniforme: La entropía es máxima cuando todos los símbolos son equiprobables Aditividad: Para variables independientes, H(X,Y) = H(X) + H(Y) Continuidad: La entropía es una función continua de las probabilidades Interpretación Práctica En el contexto de los sistemas de comunicaciones, la entropía representa: La cantidad mínima promedio de bits necesarios para codificar cada símbolo El límite teórico de compresión de datos sin pérdida La medida de la información promedio contenida en cada mensaje Usualmente, la variable X representa la fuente de información o el símbolo transmitido. La variable Y representa la salida del canal , es decir, lo que recibe el receptor (posiblemente alterado por ruido). Claudio Valencia C.  Profesor de Cátedra Bernhardt Gotschlich F.  Ayudante Tipos de Entropía Entropía Conjunta:  H(X,Y) =   p(xb, y|) log‚ p(xb, y|) Entropía Condicional:  H(Y|X) =   p(xb, y|) log‚ p(y||xb) Propiedad:H(Y|X) d H(Y) Información Mutua:  I(X;Y) = H(Y)  H(Y|X) = H(X) + H(Y)  H(X,Y) Ejercicio 1: Canal Ternario con Ruido Asimétrico 1.1. Enunciado Un canal ternario transmite símbolos {0, 1, 2} con probabilidades de entrada: P(X=0) = 0.5 ; P(X=1) = 0.3 ; P(X=2) = 0.2 La matriz del canal es: P(Y|X) = [0.80.150.05  0.10.7 0.2  0.05 0.25 0.7] Donde p(y||xb) = Probabilidad de recibir y| cuando se transmite xb. 1.2. Desarrollo Extremadamente Detallado Paso 1: Análisis de la Matriz del Canal Interpretación física: Símbolo 0 ’ 80 % de transmisión correcta Símbolo 1 ’ 70 % de transmisión correcta Símbolo 2 ’ 70 % de transmisión correcta Verificación de matriz estocástica:  P(Y|X=0) = 0.8 + 0.15 + 0.05 = 1.0  P(Y|X=1) = 0.1 + 0.7 + 0.2 = 1.0  P(Y|X=2) = 0.05 + 0.25 + 0.7 = 1.0 Paso 2: Entropía de Entrada H(X) = [0.5·log‚(0.5) + 0.3·log‚(0.3) + 0.2·log‚(0.2)] = [0.5  0.5211  0.4644] = 1.4855 bits Significado: la fuente está al 93.4 % de su entropía máxima (log‚(3)) Paso 3: Probabilidades de Salida P(Y=0) = 0.5·0.8 + 0.3·0.1 + 0.2·0.05 = 0.44 P(Y=1) = 0.5·0.15 + 0.3·0.7 + 0.2·0.25 = 0.335 P(Y=2) = 0.5·0.05 + 0.3·0.2 + 0.2·0.7 = 0.225 Verificación: 0.44 + 0.335 + 0.225 = 1.0 Paso 4: Entropía de Salida H(Y) = [0.44·log‚(0.44) + 0.335·log‚(0.335) + 0.225·log‚(0.225)] = 1.5334 bits Significado: H(Y) > H(X), el canal introduce incertidumbre Paso 5: Distribución Conjunta P(X,Y) P(0,0) = 0.5·0.8 = 0.4 P(0,1) = 0.5·0.15 = 0.075 P(0,2) = 0.5·0.05 = 0.025 P(1,0) = 0.3·0.1 = 0.03 P(1,1) = 0.3·0.7 = 0.21 P(1,2) = 0.3·0.2 = 0.06 P(2,0) = 0.2·0.05 = 0.01 P(2,1) = 0.2·0.25 = 0.05 P(2,2) = 0.2·0.7 = 0.14 Paso 6: Entropía Conjunta H(X,Y) =   [P(x,y)·log‚(P(x,y))] = 2.4898 bits Paso 7: Entropía Condicional H(Y|X=0) = 0.8842 H(Y|X=1) = 1.1568 H(Y|X=2) = 1.1219 H(Y|X) = 0.5·0.8842 + 0.3·1.1568 + 0.2·1.1219 = 1.0135 bits Verificación: H(Y|X) = H(X,Y)  H(X) = 2.4898  1.4855 = 1.0043 Paso 8: Información Mutua I(X;Y) = H(Y)  H(Y|X) = 1.5333  1.0135 = 0.5198 bits Eficiencia · = I(X;Y) / H(X) = 35.0 % Capacidad relativa = I(X;Y) / log‚(3) = 32.8 % Ejercicio 2: Optimización de Canal con Restricciones de Potencia 2.1. Enunciado Canal AWGN con: B = 1 MHz N€ = 10{y W/Hz Pmax = 1 mW R = 1.5 Mbps Analizar la viabilidad y optimizar parámetros. 2.2. Desarrollo Paso 1: Potencia de ruido total Pn = N€ · B = 10{y · 10v = 10{³ W = 1 mW SNRmax = Pmax / Pn = 1 Paso 2: Capacidad de Shannon C = B·log‚(1 + SNR) = 1e6·log‚(2) = 1e6 bps = 1 Mbps ’ Como R = 1.5 Mbps > C, no es posible transmitir sin errores Paso 3: Análisis de Viabilidad Factor de sobrecarga = R / C = 1.5 Paso 4: Opciones de Optimización Aumentar B: R = Bnuevo·log‚(1 + SNR) Ò Bnuevo = 1.5 MHz Aumentar potencia: 1.5 = log‚(1 + SNRnuevo) Ò SNRnuevo = 2.828 Preq = SNRnuevo·Pn = 2.828 mW Reducir R: Rmax = C = 1 Mbps Paso 5: Probabilidad de Error con BPSK Pe = Q((2·Eb/N€)) Eb/N€ = SNR·B/R = 1e6 / 1.5e6 = 0.667 Pe H Q(1.155) H 0.124 ’ 12.4 % de error es inaceptable
[...]

>>

-
Rechercher
-
Social TI-Planet
-
Sujets à la une
Comparaisons des meilleurs prix pour acheter sa calculatrice !
"1 calculatrice pour tous", le programme solidaire de Texas Instruments. Reçois gratuitement et sans aucune obligation d'achat, 5 calculatrices couleur programmables en Python à donner aux élèves les plus nécessiteux de ton lycée. Tu peux recevoir au choix 5 TI-82 Advanced Edition Python ou bien 5 TI-83 Premium CE Edition Python.
Enseignant(e), reçois gratuitement 1 exemplaire de test de la TI-82 Advanced Edition Python. À demander d'ici le 31 décembre 2024.
Aidez la communauté à documenter les révisions matérielles en listant vos calculatrices graphiques !
1234
-
Faire un don / Premium
Pour plus de concours, de lots, de tests, nous aider à payer le serveur et les domaines...
Faire un don
Découvrez les avantages d'un compte donateur !
JoinRejoignez the donors and/or premium!les donateurs et/ou premium !


Partenaires et pub
Notre partenaire Jarrety Calculatrices à acheter chez Calcuso
-
Stats.
3177 utilisateurs:
>3155 invités
>16 membres
>6 robots
Record simultané (sur 6 mois):
29271 utilisateurs (le 11/07/2025)
-
Autres sites intéressants
Texas Instruments Education
Global | France
 (English / Français)
Banque de programmes TI
ticalc.org
 (English)
La communauté TI-82
tout82.free.fr
 (Français)