Diese Einführung deckt insbesondere die praktischen Aspekte ab. Sie lernen alles über einfache und komplexe Verfahren zur Aufdeckung von Gruppenunterschieden und/oder zur Darstellung von Zusammenhängen zwischen zwei oder mehreren Variablen.
Lernen Sie darüber hinaus statistische Methoden kennen, mit denen Sie die Konfi denz Ihrer Ergebnisse beurteilen und visualisieren können. An Hand praxisorientierter Beispiele erzeugen und analysieren Sie selbst statistische Auswertungen, die Sie so Schritt für Schritt erlernen. Grundlagen und statistische Verfahren mit Stata.
Inhalte:
• Stata-Oberfläche
• Organisiertes Arbeiten, Verwendung von Log-Dateien
• Nutzung der Web-Features (Updates, neue
Befehle, Hilfe, Suche)
• Befehlssyntax
• Dateneingabe, Datenimport und -export, StatTransfer
• Datenmanagement
• Einfache deskriptive statistische Auswertungen
• Datenvorbereitung für spezielle statistische Auswertungen
• Funktionen in Stata
• Automatisierung von Auswertungen
• Grundlagen der Erzeugung von Grafi ken
• Statistische Verfahren
Im Vordergrund steht dabei die Datenaufbereitung, sowie grafi sche Auswertungen und deskriptive Statistiken. Die Einführung deckt insbesondere praktische Aspekte ab. Ziel ist, dass die Teilnehmer in die Lage versetzt werden, einfache Verfahren zur Untersuchung von Gruppenunterschieden und/oder von Zusammenhängen zwischen Variablen durchführen zu können. Dazu gehört gegebenenfalls auch eine kurze leicht verständliche (ohne mathematische Vorkenntnisse) Einführung in diese Methoden.
Inhalte:
• Kurze Einführung in Stata / Befehlssyntax
• Variablen- und Dateimanagement
(z.B. generate, sort, rename, drop/keep, save,
replace, u.a.)
• Ausführen deskriptiver Statistiken
und grafischen Auswertungen
• Ausführen von einfachen statistischen Analyseverfahren,
ggf. ebenenfalls unter vorheriger Darstellung der
Verfahren, z.B. t- Test, chi2, Korrelationen,
gegebenenfalls Regression u.a
• Prinzipien für eff ektives Arbeiten mit Stata unter
Verwendung von do-Files und loops.
• Weiterverarbeitung von
berechneten Ergebnissen
Anmerkung:
Die Ausweitung des Unterrichts auf individuelle Fragestellungen
und komplexere Analysen ist jederzeit möglich.
In diesem Kurs vermitteln wir Ihnen die Grundlagen der Statistik. Nach der Einführung grundlegender Begriffe beginnen wir mit der deskriptiven Statistik. Dazu gehören Lagemaße, Streuungsmaße, Formmaße, Verteilungen und typische grafische Darstellungsformen der explorativen Datenanalyse, wie z.B. Histogramme und Box-Plots. Anschließend beginnen wir mit Themen der schließenden Statistik. Ausgehend vom fundamentalen Konzept des Hypothesentests behandeln wir Mittelwertvergleiche, Korrelationsanalysen und lineare Regressionsmodelle. Wir passen diesen Kurs in Länge und Schwerpunkt Ihren Vorkenntnissen und Bedürfnissen an.
Lernziele:
- beherrschen der Kennzahlen Mittelwert, Standardabweichung, Median, ....
- Histogramme und Boxplots verstehen
- sie können t-Tests anwenden, interpretieren und Voraussetzungen prüfen
- verstehen und anwenden von Korrelationsanalysen
- einfache lineare Regression beherrschen
Voraussetzungen:
Grundlagen der Statistik sind hilfreich, aber nicht Voraussetzung. Sie werden nach Bedarf im Kurs behandelt.
Dieser drei-Tages-Kurs soll Grundlagen im Bereich Auswertung biologischer und medizinischer Daten vermitteln und auffrischen. Dabei werden Beispiele aus der Praxis bearbeitet, die es den Teilnehmern ermöglichen die Hintergründe zu verstehen. Der Lehrgang versteht sich ausdrücklich nicht als mathematisch orientierter Kurs, der den Teilnehmern Formelwissen vermittelt. Es wird vielmehr ein Überblick über die verschiedenen Möglichkeiten, Anwendungszusammenhänge und Risiken gegeben.
Inhalt:
- Statistik Grundlagen
- Deskriptive Statistik, statistische Kennzahlen
- Statistische Graphik
- Was ist eine gute Graphik?
- Balkendiagramme, Fehlerbalken und Dosis-Response Kurven
- Statistisches Testen, Aufstellen von Hypothesen
- Einfacher t-Test
- ANOVA (Varianzanalyse), Repeated Measures
- Nichtparametrische Verfahren wie z.B. Mann-Whitney-U-, Kruskal-Wallis- Wilcoxon- und Friedman-Test
- lineare und nichtlineare Regressionsanalyse einschließlich Dosis-Wirkungs-Kurven
- Datentransformation und Residuenanalyse (Varianzhomogenität, Normalverteilung und Lack-of-Fit)
- Anlage von Experimenten, statistische Versuchsplanung
- Lebensdaueranalyse
- Kaplan-Meier Kurven
- Cox- und Parametric-Survival Modell
Voraussetzungen:
Keine.
In diesem 2-tägigen Training soll darauf eingegangen werden, wie effizient mit Simulationen umgegangen werden kann. Viele Fragestellungen sind dabei ähnlich wie bei konventioneller Versuchsplanung: Welche Faktoren sind für einen Output wichtig? Wie muss ein System eingestellt werden, um ein Optimum zu erreichen? Welche Aussagen können gemacht werden, wenn Streuungsgrößen (z.B. über Rohwarenstreuung) vorliegen, die nicht kontrolliert werden können?
Das Training soll dabei einige theoretische Grundlagen liefern, aber insbesondere anhand vieler praktischer Beispiele und Übungen die Methoden näher bringen mit dem Ziel, das ein Teilnehmer diese Methoden anschließend selbstständig im eigenen Kontext anwenden kann. Als Softwaretools werden als kommerzielle Software JMP® und als Open Source Software R verwandt, da diese beiden Tools sich in vielen Bereichen gut ergänzen. Bei Bedarf wird eine kurze Einführung in R oder JMP eingefasst.
Inhalt:
- Einführung/Beispiele
- Screening Methoden
- Raumfüllende Versuchspläne
- Metamodelle
- Visualisierungen
- Verifikation/Validierung/Kalibrierung
- Sensitivitätsanalyse
- Optimierung
- Spezielle Situationen (funktionale Daten, multifidelity Simulationen, Pareto Front estimation, Inverse Probleme,…)
Voraussetzungen:
- Ingenieure, Techniker und Wissenschaftler, die selbst mit Simulationen arbeiten, entweder als Anwender, der eine vorgegeben Simulation nutzt, oder als Entwickler, der die Simulation aufsetzt.
- Teilnehmer aus Unternehmen oder Universitäten, aus der Finanzwirtschaft oder den Wirtschaftswissenschaften.
Dieser dreitägige Lehrgang soll Grundlagen im Bereich Fragebogenerstellung und der zugehörigen Datenauswertung vermitteln und auffrischen. Dabei werden Beispiele aus der Praxis bearbeitet, die es den Teilnehmern ermöglichen die Hintergründe zu verstehen. Der Lehrgang versteht sich ausdrücklich nicht als mathematisch orientierter Kurs, der den Teilnehmern Formelwissen vermittelt. Es wird vielmehr ein Überblick über die verschiedenen Möglichkeiten, Anwendungszusammenhänge und Risiken gegeben.
Inhalt:
- Was macht einen guten Fragebogen aus?
- Design des Fragebogens (Interviews, postalisch, Internet, etc.)
- geschlossene Fragen: Validierung, Reliabiltät, wie Auswerten
- Fragen mit mehreren Antwortmöglichkeiten: Anlage (Formulierung und Layout), Möglichkeiten der Auswertung
- Offene Fragen
- Grundregeln, Kategorisieren der Antworten
- Erfahrungen mit Internetbefragungen
- Vorstellung von Software
Voraussetzungen:
Keine.
Dieser 2-tägige Lehrgang vermittelt die Grundlagen der Datenauswertung im Bereich technisch- wissenschaftlicher Anwendungen. Dieser Kurs ist ausdrücklich nicht als mathematisch orientierter Kurs konzipiert. Es wird vielmehr ein Überblick über die verschiedenen statistischen Verfahren und Anwendungszusammenhänge gegeben.
Ziel des Lehrgangs ist es, Anhand von Beispielen aus der Praxis ein sicheres Gefühl für die Anwendung statistischer Verfahren zu entwickeln. Ebenso werden sie in der Lage sein, wichtige statistische Kennzahlen in den Outputs der Analyse zu identifizieren und zu interpretieren. Sie können richtige Schlüsse aus den Ergebnissen der Analysen ziehen und Signifikanz und Relevanz der Ergebnisse abschätzen. Die Validität der Ergebnisse können sie über die Residuen-Analyse überprüfen.
Das Seminar richtet sich an alle, die Daten auswerten müssen, insbesondere an Ingenieure, Chemiker, Mediziner, Biologen in Forschung, Entwicklung und Qualitätssicherung. Kenntnisse der Grundlagen der Statistik werden im Kurs vermittelt.
Inhalt:
- Einführung in die Statistik
- Grundbegriffe (Mittelwert, Standardabweichung, Median,....)
- Software für Statistische Auswertungen
- Hinweise zur Datenspeicherung
- Regressionsanalyse:
- einfache lineare Regression
- Regressionsdiagnostik
- Varianzanalyse:
- t-Test
- einfaktorielle ANOVA
- multiple Vergleiche (Bonferroni, Tukey HSD, ...)
- Diagnostik
- Qualitätstools
- SPC/Regelkarten
- Prozessfähigkeit
- Idee von statistischer Versuchsplanung
Voraussetzungen:
Keine.
Diese eintägige Lehrveranstaltung ist so konzipiert, dass Teilnehmer die Grundlagen der Modellspezifikation und Implementierung von Trendanalysen, Zeitreihen und Vorhersagen anhand konkreter Anwendungsbeispiele vermittelt bekommen. Dabei sollen mit den Modellen Chancen und Risiken zukünftiger Ereignisse oder Entscheidungen klar herausgearbeitet werden. Nutzen und Aufwand werden anhand Übungen in den einzelnen Fragestellungen gegenübergestellt. Der Erfolg des Lehrganges stützt sich auf praxisnahe Gruppenarbeiten.
Inhalt:
- Was sind Zeitreihen?
- Was sind gute Vorhersagen?
- Klassische Zeitreihenanalyse (gleitende Durchschnitte)
- Exponentielles Glätten und andere Glättungsverfahren
- AR(I)MA Analyse
- Software: Welche Möglichkeiten bietet Standardsoftware, Statistiksoftware bzw. Spezialsoftware?
- Rückblick und Zusammenfassung
Voraussetzungen:
Keine.