DL2
DownloadTélécharger
Actions
Vote :
ScreenshotAperçu

Informations
Catégorie :Category: nCreator TI-Nspire
Auteur Author: superkepo28
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.27 Ko KB
Mis en ligne Uploaded: 01/07/2025 - 09:17:24
Uploadeur Uploader: superkepo28 (Profil)
Téléchargements Downloads: 1
Visibilité Visibility: Archive publique
Shortlink : https://tipla.net/a4770311
Type : Classeur 3.0.1
Page(s) : 1
Taille Size: 3.27 Ko KB
Mis en ligne Uploaded: 01/07/2025 - 09:17:24
Uploadeur Uploader: superkepo28 (Profil)
Téléchargements Downloads: 1
Visibilité Visibility: Archive publique
Shortlink : https://tipla.net/a4770311
Description
Fichier Nspire généré sur TI-Planet.org.
Compatible OS 3.0 et ultérieurs.
<<
// FICHE DE COURS DATA LITERACY - VERSION EXAMEN // ============================================= 1. PYRAMIDE DIKW (THÉORIE) -------------------------- " Données (Data) : - Valeurs brutes non interprétées - Ex: "25, 18, 32" (sans contexte) " Information : - Données organisées et contextualisées - Ex: "Températures à Paris: 25°C lundi, 18° mardi..." " Connaissance (Knowledge) : - Modèles et patterns identifiés - Ex: "Les températures baissent en milieu de semaine" " Sagesse (Wisdom) : - Application pratique des connaissances - Ex: "Programmer les événements extérieurs en début de semaine" 2. WORKFLOW COMPLET (THÉORIE) ----------------------------- A. PHASE DE COLLECTE - Types de sources : 1. Données structurées : - Bases SQL (tables relationnelles) - Fichiers CSV/Excel 2. Données semi-structurées : - JSON, XML - Données web (HTML) 3. Données non structurées : - Textes, images, vidéos B. PHASE DE NETTOYAGE - Problèmes courants : 1. Données manquantes : - Suppression (si peu nombreuses) - Imputation (moyenne/médiane) 2. Données aberrantes : - Identification par boxplots - Traitement spécifique 3. Problèmes de format : - Dates inconsistantes - Unités de mesure variables C. ANALYSE EXPLORATOIRE (EDA) - Méthodes clés : 1. Statistiques descriptives : - Centralité (moyenne, médiane) - Dispersion (écart-type, IQR) 2. Visualisation : - Distribution : histogrammes - Relations : nuages de points - Comparaisons : diagrammes en barres 3. MÉTHODES D'ANALYSE (THÉORIE) ------------------------------- A. K-MEANS (CLUSTERING) - Concept : - Regroupement automatique en clusters - Basé sur la distance euclidienne - Étapes théoriques : 1. Choix du nombre de clusters (k) 2. Initialisation aléatoire des centroïdes 3. Affectation des points aux clusters 4. Recalcul des centroïdes 5. Itération jusqu'à convergence B. ANALYSE DE RÉGRESSION - Types : 1. Linéaire simple (1 variable explicative) 2. Multiple (plusieurs variables) - Interprétation : - Coefficient R² : qualité de l'ajustement - p-value : significativité des variables 4. VISUALISATION (BONNES PRATIQUES) ----------------------------------- " Choix des graphiques : - Comparaison : diagramme en barres - Évolution : courbes temporelles - Distribution : histogrammes/boxplots - Corrélations : heatmaps " Pièges à éviter : - Échelles trompeuses - Effets 3D inutiles - Couleurs non accessibles - Labels manquants 5. VALIDATION DES RÉSULTATS --------------------------- - Méthodes d'évaluation : 1. Partitionnement des données : - Ensemble d'entraînement (70-80%) - Ensemble de test (20-30%) 2. Métriques : - Classification : précision, rappel - Régression : MSE, R² 3. Validation croisée (k-fold) 6. GLOSSAIRE TECHNIQUE ---------------------- " ETL : Extract-Transform-Load " API : Interface de programmation " SQL : Langage de requêtes " EDA : Exploratory Data Analysis " ML : Machine Learning " IQR : Interquartile Range Made with nCreator - tiplanet.org
>>
Compatible OS 3.0 et ultérieurs.
<<
// FICHE DE COURS DATA LITERACY - VERSION EXAMEN // ============================================= 1. PYRAMIDE DIKW (THÉORIE) -------------------------- " Données (Data) : - Valeurs brutes non interprétées - Ex: "25, 18, 32" (sans contexte) " Information : - Données organisées et contextualisées - Ex: "Températures à Paris: 25°C lundi, 18° mardi..." " Connaissance (Knowledge) : - Modèles et patterns identifiés - Ex: "Les températures baissent en milieu de semaine" " Sagesse (Wisdom) : - Application pratique des connaissances - Ex: "Programmer les événements extérieurs en début de semaine" 2. WORKFLOW COMPLET (THÉORIE) ----------------------------- A. PHASE DE COLLECTE - Types de sources : 1. Données structurées : - Bases SQL (tables relationnelles) - Fichiers CSV/Excel 2. Données semi-structurées : - JSON, XML - Données web (HTML) 3. Données non structurées : - Textes, images, vidéos B. PHASE DE NETTOYAGE - Problèmes courants : 1. Données manquantes : - Suppression (si peu nombreuses) - Imputation (moyenne/médiane) 2. Données aberrantes : - Identification par boxplots - Traitement spécifique 3. Problèmes de format : - Dates inconsistantes - Unités de mesure variables C. ANALYSE EXPLORATOIRE (EDA) - Méthodes clés : 1. Statistiques descriptives : - Centralité (moyenne, médiane) - Dispersion (écart-type, IQR) 2. Visualisation : - Distribution : histogrammes - Relations : nuages de points - Comparaisons : diagrammes en barres 3. MÉTHODES D'ANALYSE (THÉORIE) ------------------------------- A. K-MEANS (CLUSTERING) - Concept : - Regroupement automatique en clusters - Basé sur la distance euclidienne - Étapes théoriques : 1. Choix du nombre de clusters (k) 2. Initialisation aléatoire des centroïdes 3. Affectation des points aux clusters 4. Recalcul des centroïdes 5. Itération jusqu'à convergence B. ANALYSE DE RÉGRESSION - Types : 1. Linéaire simple (1 variable explicative) 2. Multiple (plusieurs variables) - Interprétation : - Coefficient R² : qualité de l'ajustement - p-value : significativité des variables 4. VISUALISATION (BONNES PRATIQUES) ----------------------------------- " Choix des graphiques : - Comparaison : diagramme en barres - Évolution : courbes temporelles - Distribution : histogrammes/boxplots - Corrélations : heatmaps " Pièges à éviter : - Échelles trompeuses - Effets 3D inutiles - Couleurs non accessibles - Labels manquants 5. VALIDATION DES RÉSULTATS --------------------------- - Méthodes d'évaluation : 1. Partitionnement des données : - Ensemble d'entraînement (70-80%) - Ensemble de test (20-30%) 2. Métriques : - Classification : précision, rappel - Régression : MSE, R² 3. Validation croisée (k-fold) 6. GLOSSAIRE TECHNIQUE ---------------------- " ETL : Extract-Transform-Load " API : Interface de programmation " SQL : Langage de requêtes " EDA : Exploratory Data Analysis " ML : Machine Learning " IQR : Interquartile Range Made with nCreator - tiplanet.org
>>