Applications de l’apprentissage automatique en ingénierie

L’intelligence artificielle (IA) est devenue un argument de vente de premier plan, que vous souhaitiez acheter un simple grille-pain ou un robot de chaîne de montage avancé. L’objectif de ce séminaire est de démystifier le jargon utilisé et de fournir …



Meilleures pratiques statistiques pour les startups biotechnologiques/médicales

Un atelier de 3 heures au cours duquel sont présentés les éléments clés des recommandations et réglementations des différentes agences gouvernementales (Santé Canada, FDA, EMA, etc.) avec leurs implications concrètes sur les pratiques à respecter. S’adressant aussi bien aux équipes de direction qu’au personnel scientifique, l’atelier permet de sensibiliser les parties prenantes à ces enjeux. En soi, l’atelier est suffisant pour permettre aux startups d’autoévaluer leurs pratiques et leur proposer des outils pour améliorer les points qu’elles jugent problématiques.



Biostatistique en recherche médicale

sciences de la vie

Gagnez en confiance lors de la discussion des résultats cliniques avec les principaux prestataires de soins de santé. Ce cours couvre les concepts biostatistiques clés nécessaires à l’examen et à l’interprétation des résultats publiés dans la littérature biomédicale. Le programme exact du cours est adapté au domaine thérapeutique concerné. Des publications scientifiques sélectionnées sont examinées, discutées et critiquées.



Outils statistiques pour la R&D

outils essentiels de la statistique

Cet atelier propose une introduction aux principes et concepts fondamentaux de la statistique. La première partie couvre les techniques classiques et plus récentes d’analyse exploratoire des données (EDA) pour décrire les données avec des outils numériques et graphiques. Les différentes utilisations de ces méthodes telles que la détection des valeurs aberrantes sont abordées. La deuxième partie aborde, à l’aide d’exemples concrets, les principes sous-jacents aux tests statistiques et à la prise de décision en présence d’incertitude. Elle couvre les risques encourus, la taille de l’effet, les valeurs p ainsi que la signification statistique et la pertinence pratique. L’utilisation et l’interprétation des intervalles de confiance sont également abordées. Un excellent module d’introduction et une base solide pour tous les autres cours.



Analyse statistique des données métagénomiques

dna

Les données métagénomiques présentent des caractéristiques spécifiques qui nécessitent des méthodes statistiques adaptées. Découvrez les outils statistiques les plus couramment utilisés dans ce domaine. La formation débute par un rappel des tests d’hypothèses, des risques associés, de la multiplicité et de la manière de les contrôler. Apprenez ensuite quelles sont les spécificités et les problématiques des données génomiques. La formation revient sur les tests classiques de comparaison de groupes (ANOVA, MANOVA) et leur extension aux tests adaptés aux données génomiques (ANOSIM et PERMANOVA). Les outils de visualisation des données et le choix d’une métrique de distance sont également abordés.



Introduction à la planification d’expériences

DoE

La variation est présente dans chaque expérience. Découvrez les techniques DoE pour contrôler la variation et maximiser la qualité des données. Cet atelier présente les techniques classiques pour concevoir des expériences efficaces ainsi que les outils pour analyser leurs résultats. Les principes de calcul de la taille de l’échantillon, les stratégies pour éliminer les sources indésirables de variabilité comme l’utilisation de blocs et de contrôles, ainsi que les plans d’expériences les plus couramment utilisés sont abordés. L’analyse statistique des expériences planifiées est progressivement couverte du test t utilisée à l’analyse de la variance (ANOVA).



Planification d’expériences avancée

plans d'expériences

Apprenez les plans d’expérience avancés pour tenir compte de divers types de contraintes expérimentales telles que le temps, les ressources disponibles, l’hétérogénéité des matériaux, les restrictions de randomisation lorsque certains facteurs sont plus difficiles ou coûteux à modifier que d’autres, les différentes tailles d’unités expérimentales ainsi que les mesures répétées. Dans ce cours, la construction de plans d’expérience avancés et leur analyse statistique sont abordées à l’aide d’études de cas réels.



Plans pour l’optimisation

optimisation

Les plans d’optimisation font référence à des stratégies de conception expérimentale spécifiquement structurées pour optimiser un processus, un produit ou un système. L’objectif de ces plans est d’identifier la combinaison de facteurs (entrées) qui conduisent au meilleur résultat possible (réponse) selon un objectif défini, tel que maximiser les performances, minimiser les coûts ou trouver les conditions de fonctionnement les plus efficaces. Apprenez-en davantage sur les plans expérimentaux lorsque des facteurs influents ont été identifiés et que l’objectif est d’optimiser leurs niveaux. Le principe sous-jacent à la construction de plans composites et Box-Behnken est abordé. Le principe, la construction de modèles et la méthodologie de surface de réponse sont examinés.



Plans de criblage

criblage

Dans les phases préliminaires de recherche, le nombre de facteurs potentiellement influents à étudier est généralement important. Les plans de sélection sont des plans expérimentaux utilisés pour identifier les facteurs les plus influents qui influencent une réponse ou un résultat dans un processus ou un système avec un nombre raisonnable d’exécutions. Ces plans sont généralement utilisés dans les premières étapes de l’expérimentation, lorsque vous souhaitez évaluer rapidement un grand nombre de variables pour déterminer celles qui ont le plus d’effet sur la variable de réponse. L’objectif est d’éliminer les facteurs sans importance et de concentrer les ressources sur les plus influents. Découvrez la construction de plans factoriels fractionnaires, les stratégies d’aliasing et de de-aliasing. Une connaissance pratique de la régression linéaire multiple est nécessaire pour tirer le meilleur parti de cet atelier.



Techniques de régression linéaire

Linear

La régression linéaire est une méthode utilisée pour modéliser la relation entre une variable dépendante et une ou plusieurs variables indépendantes en ajustant une équation linéaire aux données observées. La création d’un modèle de régression avec des logiciels statistiques est devenue simple. Cependant, l’interprétation des résultats du logiciel et la création d’un bon modèle ne sont pas des tâches simples. Découvrez la modélisation statistique en mettant l’accent sur les modèles linéaires. Qu’est-ce qu’un modèle ? Estimation et interprétation des coefficients du modèle. Gestion des prédicteurs et des interactions continus et catégoriels. Évaluation des performances du modèle : explicatif ou prédictif. Pièges courants et meilleures pratiques.



Modélisation de données catégoriques

La régression linéaire n’est pas adaptée à la modélisation de réponses binaires telles que réussite/échec, survie/décès. Découvrez le principe de la régression logistique faisant partie des modèles linéaires généralisés ainsi que ses similitudes avec la régression linéaire et ses outils spécifiques. De bonnes pratiques pour la construction de modèles et pour l’évaluation de l’adéquation des modèles sont présentées.



Méthodes statistiques pour les études de fiabilité

Dans les applications industrielles, la fiabilité est cruciale et les tests sont coûteux. Les données collectées doivent être exploitées de la meilleure façon possible. Les données de fiabilité possèdent des caractéristiques spécifiques qui nécessitent des méthodes statistiques dédiées. Découvrez les outils statistiques pour l’analyse de la fiabilité.



Études de durée de vie – Planification & analyse

Saviez-vous que les études de durée de vie possèdent des caractéristiques particulières qui nécessitent des outils statistiques adaptés? Découvrez-les pour la mise en place d’études efficaces et pour l’analyse adaptée des données.



Design et analyse des études de survie

Kaplan Meier Curve

Les données de survie présentent des caractéristiques spécifiques, de sorte que leur conception et leur analyse nécessitent des outils statistiques adaptés. Cet atelier utilise une variété d’études de cas pour présenter les aspects les plus importants à prendre en compte pour une détermination fiable des courbes de survie. Les participants apprennent pour chaque type d’étude comment concevoir des expériences efficaces pour déterminer la durée de survie des patients. Les questions abordées comprennent la sélection des points temporels, la gestion de la censure (observations incomplètes), les risques concurrents et la taille de l’expérience. L’atelier met également l’accent sur les moyens appropriés d’analyser les données de survie, de comparer les courbes, de prendre en compte les covariables variables dans le temps et d’interpréter et de communiquer de manière adéquate les résultats obtenus.



Analyse en composantes principales

pca

Découvrez l’analyse en composantes principales, une technique de réduction des données, pour identifier, quantifier et visualiser la structure d’un ensemble de mesures. L’ACP fournit des outils de visualisation de données perspicaces. Découvrez des applications innovantes. Au cours de l’atelier, l’accent est mis sur les principes et les conditions d’utilisation de la méthode, les résultats qu’ils fournissent et leur interprétation. Une grande partie du temps est consacrée aux études de cas et à l’interprétation des résultats du logiciel.



Analyse de classification – apprentissage non-supervisé

classification

L’analyse de classification – clustering – unsupervised learning – comprend un ensemble de techniques visant à regrouper des objects possédant des caractéristiques similaires: consommateurs, gènes, etc.  C’est un champ de recherche très actif en statistique. Vous découvrirez les outils classiques ainsi que les récents développements.



Outils statistiques fondamentaux pour les ingénieurs

Apprenez les concepts clés des statistiques. Les techniques classiques et plus récentes d’analyse exploratoire des données permettant de résumer efficacement les données et de détecter les valeurs aberrantes sont abordées. Les tests statistiques et la prise de décision en présence de variation sont également abordés.