Prism

Analyser, représenter et présenter des données scientifiques plus rapidement que jamais avec Prism!

Comparaisons statistiques

  • Tests T appariés ou non appariés. Rapporte les valeurs P et les intervalles de confiance.
  • Test non paramétrique de Mann-Whitney, incluant l’intervalle de confiance de la différence des médianes.
  • Test de Kolmogorov-Smirnov pour comparer deux groupes
  • Test de Wilcoxon avec intervalle de confiance de la médiane.
  • Effectuez de nombreux tests T à la fois, en utilisant False Discover Rate (ou les comparaisons multiples de Bonferroni) pour choisir quelles comparaisons sont des découvertes à étudier davantage.
  • Mesures ordinaires ou répétées ANOVA unidirectionnelle suivie par les tests de comparaison multiple de Tukey, Newman-Keuls, Dunnett, Bonferroni ou Holm-Sidak, les post-tests de tendance ou les tests des moindres de Fisher
  • De nombreux tests de comparaisons multiples sont accompagnés d’intervalles de confiance et de valeurs de P ajustées en fonction de la multiplicité.
  • Correction de Greenhouse-Geisser pour que des mesures répétées unidirectionnelles ANOVA n’aient pas à revêtir une sphéricité. Lorsque cela est choisi, les tests de comparaison multiples ne revêtissent pas non plus de la sphéricité.
  • ANOVA unidirectionnelle non paramétrique de Kruskal-Wallis ou Friedman avec un post-test de Dunn
  • Test exact de Fisher ou test du chi carré. Calculez le risque relatif et le rapport de cotes avec les intervalles de confiance.
  • ANOVA bidirectionnelle, même avec des valeurs manquantes avec certains post-tests.
  • ANOVA bidirectionnelle, avec des mesures répétées dans un ou les deux facteurs. Des comparaisons multiples Tukey, Newman-Keuls, Dunnett, Bonferroni, Holm-Sidak, ou Fishers LSD pour tester les effets principaux et simples.
  • ANOVA tri directionnelle (limitée à deux niveaux dans deux des facteurs et un nombre quelconque de niveaux dans le troisième).
  • Analyse de survie de Kaplan-Meier. Comparez les courbes avec le test Mantel-Haenzel (y compris le test de tendance).

Statistiques des colonnes

  • Calculez min, max, quartiles, moyenne, SD, SEM, CI, CV,
  • Moyenne ou moyenne géométrique avec intervalles de confiance.
  • Les distributions de fréquences (bin à l’histogramme), y compris les histogrammes cumulatifs.
  • Test de normalité par trois méthodes.
  • Un test T d’échantillon ou un test de Wilcoxon pour comparer la moyenne de la colonne (ou la médiane) à une valeur théorique.
  • Asymétrie et Aplatissement
  • Identifiez les valeurs aberrantes en utilisant la méthode Grubbs ou ROUT.

Régression linéaire et corrélation

  • Calculez la pente et l’interception avec les intervalles de confiance.
  • Forcez la ligne de régression à travers un point spécifié.
  • Adaptez pour reproduire les valeurs Y ou la moyenne Y.
  • Testez le départ de la linéarité avec un test de course.
  • Calculez et représentez graphiquement les résidus.
  • Comparez les pentes et les interceptions de deux ou plusieurs lignes de régression.
  • Interpolez de nouveaux points le long de la courbe standard.
  • Corrélation de Pearson ou Spearman (non paramétrique).
  • Analyser une pile de valeurs de P, en utilisant les comparaisons multiples de Bonferroni ou l’approche FDR pour identifier les observations ou les découvertes « significatives ».

Régression non linéaire

  • Ajustez l’une de nos 105 équations intégrées, ou saisissez les vôtres.
  • Entrez des équations différentielles ou implicites.
  • Entrez des équations différentes pour différents ensembles de données.
  • Régression non linéaire globale – partagez des paramètres entre des ensembles de données.
  • Robuste régression non linéaire.
  • Identification ou élimination automatique des valeurs aberrantes.
  • Comparez les modèles à l’aide du test F de somme des carrés ou de l’AICc.
  • Comparez les paramètres entre des ensembles de données.
  • Appliquez des contraintes.
  • Différenciez les points de poids par plusieurs méthodes et évaluez la façon dont votre méthode de pondération a fonctionné.
  • Acceptez les valeurs automatiques initiales estimées ou saisissez les vôtres.
  • Représentez automatiquement la courbe sur la plage spécifiée des valeurs X.
  • Quantifiez la précision des ajustements avec les SE ou CI des paramètres. Les intervalles de confiance peuvent être symétriques (comme c’est le cas traditionnellement) ou asymétriques (ce qui est plus précis).
  • Quantifiez la symétrie de l’imprécision avec l’asymétrie de Hougaard.
  • Tracez des bandes de confiance ou de prévision.
  • Testez la normalité des résidus.
  • Exécutez ou répliquez le test de pertinence du modèle.
  • Indiquez la matrice de covariance ou l’ensemble des dépendances.
  • Interpolez facilement les points à partir de la meilleure courbe d’ajustement.

Statistiques de laboratoire cliniques (diagnostiques)

  • Graphiques de Bland-Altman
  • Courbes caractéristiques du récepteur (ROC).
  • Régression de Deming (régression linéaire de type II).

Simulations

  • Simulez des tables XY, de colonnes ou de contingence.
  • Répétez les analyses des données simulées sous forme d’analyse de Monte-Carlo.
  • Tracez les fonctions à partir des équations que vous sélectionnez ou entrez et paramétrez les valeurs que vous choisissez.

Autres calculs

  • Zone sous la courbe, avec intervalle de confiance.
  • Transformez les données.
  • Normalisez.
  • Identifiez les valeurs aberrantes.
  • Tests de normalité.
  • Transposez des tables.
  • Soustrayez la ligne de base (et combinez les colonnes).
  • Calculez chaque valeur en tant que fraction de sa rangée, colonne ou total général.