Destiny Duel(men) Series (DDS) vol.9 am 17.5.2014 in Dülmen // Trainiert für die Nationals

  • Schön, dass ihr hier so eifrig über den einzigen Artikel diskutiert, den nicht ich geschrieben habe :P


    Ich fühle mich ein wenig übergangen...

  • Hallo Leute,


    ich finde auch, dass Chironomus zu wenige Daten hat, um klar was aussagen zu können.


    Allerdings finde ich auch, dass alle Statistik, die hier erwähnt wird, sowieso zu kurz greift. Ihr verwendet irgendwelche Lehrbuchformeln. Wissenschaftliche Forschung läuft aber nicht direkt auf einfache Wahrscheinlichkeitsrechung heraus, sondern darauf, wieviel man aus den erhaltenen Daten Neues lernt.


    Das kann man tatsächlich mathematisch machen, mit Hilfe des Bayes'schen Satzes. Ich habe es kurz ... naja, länger, es hat mich halt grad gepackt ... aufgeschrieben und als Dateianhang an diese Nachricht gehängt. Ich hoffe die statistisch Interessierten unter Euch finden es unterhaltsam.


    Das ist Version 1 für den Review. Version 1 ist überholt; lest V2 im nächsten Post. Deckt mich ruhig ein mit Fragen, Kommentaren und Kritik. Ich mach dann in zwei Wochen eine Version 2. Ziel ist es auch, die Erklärungen wenn nötig noch zu verbessern.


    P.S.


    Andererseits gibt es dann aber ein mathematisches Problem, nämlich die fehlende Unabhängigkeit der Zufallsvariablen. Die sorgt nämlich dafür, dass der Test "kaputt geht" - die Unabhängigkeit ist nämlich ein wichtiges Kriterium dafür, dass die Teststatistik auch tatsächlich binomialverteilt ist mit den entsprechenden Parametern.


    Das ist bei meiner Methode übrigens kein Problem: bei Bayes'scher Betrachtung geht es nicht um echte statistische Unabhängigkeit, sondern um logische Unabhängigkeit, nämlich darum, ob der Betrachter eine Abhängikeit sieht. Details dazu in den Kapitel 1 bis 3 meiner Referenz [2] in meinem PDF.


    Long live light!

  • Hallo zusammen,


    es gibt erste Korrekturen, in blau markiert.


    Es gab auch das Missverständnis, dass mir Chironomus' Arbeit nicht gefiel. Im Gegenteil, er hat meiner Meinung nach bei der Erhebung der Daten sehr gut und wissenschaftlich gearbeitet. Nur die Schlussfolgerung habe ich kritisiert.


    Long live light!

  • Doppelposts werden trotzdem nicht gerne gesehen, gibt ja den schönen Edit Button ;)
    Den das nächste mal bitte benutzen ;)


    Danke :)


    peeze obc

    Mitglied bei: GENERATION 42
    TCG LIGA WOHLEN (Aargau, Schweiz) Jeden Donnerstag um 19.00 bis ca 23.00 Uhr!
    Ligaleiter Yu Gi Oh Liga Wohlen
    Yu Gi Oh Moderator

    Swiss Advanced Insector/Chimera/Lightsworms-player


    London wäre epic, ich wollte schon immer mal nach Frankreich.



    ... aber vielleicht hilft die Drohung mit meiner angetrauten Hexe ...

    Einmal editiert, zuletzt von obc ()

  • Sehr schönes Ding^^


    Ein paar Fehler habe ich beim Überfliegen (!) auch noch gefunden:
    - Paragraph V., 1. Satz ist kein vollständiger deutscher Satz ("Es ist nun ohne weiteres möglich, das in (6) einzusetzen und die sogenannten a-posteriori-Verteilungen.")
    - V., 4. Absatz: "Zuerst müssen wir genau festhalten, was wir unter ,,weseentlicher Vorteil” verstehen."
    - VI., 2. Absatz: "Yugioh!" -> Yu-Gi-Oh!
    - VI., 3. Absatz: "vorhandened" -> vorhandenes


    Ich muss dir auf jeden Fall zugestehen, dass deine Methode hier viel besser ist, weil man tatsächlich nur sehr ungenaue Annahmen machen kann (es ist schlichtweg unklar, wie der wahre Wert [hier: prozentualer Anteil] von "Spieler gewinnt das Spiel, falls er beginnt" wirklich ist). Trotzdem sollte man die Methoden, die "an vielen Schulen und Unis" gelehrt werden, nicht so schlecht geredet werden: sie mögen in diesem Zusammenhang nicht sehr nützlich sein, aber der Test, der durchgeführt wurde, hat (respektive hätte) schon eine Bedeutung: Nämlich dass die Daten zu einer gewissen Hypothese passen oder eben nicht. Wenn man sich das vor Augen hält (und die diversen Unzulänglichkeiten in diesem Fall einfach mal geflissentlich übersieht), dann ist das schon ein legitimes Vorgehen. Nur ist es eben etwas anderes, was du hier tust.

  • ich muss mich an dieser stelle der diskussion leider ausklinken. als theologiestudent, der zeit seines lebens nachhilfe in mathe benötigt hat, verstehe ich nur noch bahnhof. ich denke, dass meine untersuchung einen schönen überblick liefert und in die richtige richtung tendiert. für mathematische vertiefungen fehlt mir aber leider das know-how. ich danke euch trotzdem für die kommentare und würde gerne wieder mitlesen- und diskutieren, wenn ihr es schafft, mathematik so zu verpacken, dass auch ich mitkomme :P

  • Chironomus: für einen Theologen hast Du ein sehr gutes Gefühl dafür, was Wissenschaft ist! Im Moment muss Dir dann reichen, dass Du weisst, dass magic_hero und ich die Datenmenge als zu klein anschauen. Bis ich das alles für Nichtmathematiker erklären kann, muss ich es erst selber noch besser verstehen :D


    magic_hero: Danke für den Feedback, und OK, die Spitze gegen Universitäts-Statistik nehm ich in der Schlussversion wieder raus. Das kam aus einem Frust heraus, nämlich dass sogar in meinem Gebiet der Wissenschaft Statistik falsch gemacht und, noch schlimmer, von Gutachtern falsch verlangt wird, damit Arbeiten veröffentlicht werden dürfen. Im Juni kommt ein ernsthaftes Paper zu dem Thema von mir in einem renommierten Magazin raus. Das werde ich aber hier nicht zitieren, sonst weiss gleich jeder User, wer ich im real life bin, aber wenn's Dich interessiert, dann schreib mir ne PN mit Deiner e-mail-Adresse, und Du kriegst nen pre-print ;)


    Ein Zusatzt: Du schreibst oben: "Nämlich dass die Daten zu einer gewissen Hypothese passen oder eben nicht." Und das ist gemäss Bayes'scher Theorie eben nicht einmal möglich. Man kann das nur machen, wenn man einen Satz von sich gegenseitig ausschliessenden Hypothesen hat, die Zusammen die Wahrscheinlichkeit 1 haben. Ich mache übrigens auch nicht was anderes; die an meiner Uni damals gelehrte Standardmethode entspricht mathematisch exakt dem Vorgehen des statistikverbreitenden Zombies aus meinem Text ... einfach ohne dass die Annahmen klar sind ;)

  • Was bei Moritz Artikel fehlt, ist die Art und Weise wie der Hypothesentest gemacht wurde (weil er natürlich keine Ahnung hat, was das ist). In einem wissenschaftlichen Aufsatz würde man dies unter dem Punkt "Methoden" aufführen. Ich habe den verwendeten Test aber bereits verlinkt. Wie ich vorgerechnet habe, zeigt er bei einem Alpha-Fehler von 0,05 signifikantes Ergebnis. Umgangssprachlich kann man jetzt sagen: Die Chance zu gewinnen ist für denjenigen der anfängt bzw. nicht anfängt mit 95%iger Wahrscheinlichkeit nicht gleich groß. Mehr sagt dieser Hypothesentest nicht aus. Warum dieser Test mathematisch nicht schlüssig sein soll, erschließt sich mir aus deinem "Paper" nicht. Er ist ein sehr simples Standardverfahren und berücksichtigt durchaus die Fallzahl. Bei einer geringeren Fallzahl hätte die Abweichung von der Gleichverteilung 50% nämlich deutlich größer sein müssen (erneut umgangssprachlich ausgedrückt).


    Magic Hero hat aber sehr richtig eingeworfen, dass die Wahrscheinlichkeit zu gewinnen nicht zwangsweise bei 50% liegt. Stattdessen ist die Wahrscheinlichkeit zu gewinnen abhängig von der Stärke des Spielers und der Sträke des Decks. Ein blutiger Anfänger mit einem Starter Deck Pimped wird gegen einen Deutschen Meister mit einem Dragon Ruler wohl trotz gewonnenem Würfelwurf wohl eine Siegeswahrscheinlichkeit von 0% haben. Auch kann es beim Match-Up so schöne Phänomene geben, wie man sie von Efrons Würfeln her kennt ...


    Indem man die Statistik in die späteren Runden gelegt hat, wurden diese Faktoren zumindest ein wenig gemildet, denn zumindest die kombinierte Stärke aus Deck und Spieler sollte zu diesem Zeitpunkt einigermaßen niveliert worden sein. Es bleiben allerdings Einflüsse wie Side-Deck und Match-Up.


    Ehrlich gesagt ist es meiner Meinung aber nicht so wichtig, diese Faktoren zu berücksichtigen. Denn GEFÜHLT haben diese Faktoren für die meisten Spieler keinen so großen Einfluss. Die meisten Spieler gehen davon aus, dass sie total super spielen und mindestens genau so gut sind wie ihr Gegner. Und ihr gewähltes Deck ist sowieso allen anderen überlegen. Emotional gesehen ist der Würfelwurf ein Problem und allein das macht die Sache schon interessant. Gerade aus Marketing-Perspektive wie sie KONAMI naturgemäß hat.


    Letztendlich sagt diese Studie nur aus, ob dieses Phänomen überproportional Häufig vorkommt oder nicht (tut es). Ob dieses Phänomen jetzt aber NUR durch den Würfelwurf erklärt werden muss oder nicht, darüber macht diese Studie keine Aussage (muss sie meines Erachtens auch nicht).


    So schön die Bayssche Statistik ist, so wenig macht sie hier meiner Meinung nach Sinn. Die Probleme innerhalb der Teststatistik liegen sehr viel tiefer als nur in der reinen Methodik. Wie gesagt ist die Fragestellung meiner Meinung nach auch nicht "Ist der Würfelwurf das Problem?" sondern eher nur "Tritt dieses Phänomen überproportional häufig auf?". Und letztere Frage kann man durchaus mit "Ja!" beantworten. Ob der "wahre Wert" am Ende aber bei 50,01% oder bei 73,45% liegt, dass kann man mit dieser Erhebung natürlich nicht beantworten. Auch stellt sich die Frage, ob ein tatsächlicher Wert von 50.01% am Ende tatsächlich eine Intervention von Seiten KONAMIS rechtfertigen würde.

  • Ein Zusatzt: Du schreibst oben: "Nämlich dass die Daten zu einer gewissen Hypothese passen oder eben nicht." Und das ist gemäss Bayes'scher Theorie eben nicht einmal möglich. Man kann das nur machen, wenn man einen Satz von sich gegenseitig ausschliessenden Hypothesen hat, die Zusammen die Wahrscheinlichkeit 1 haben.


    Das wird bei dem hier gemachten Test aber getan. Die Hypothese ist p=p_0 und die Alternative eben p ungleich p_0, jedenfalls bei dem von Nimrod verlinkten Verfahren. Zusammen deckt man damit alle möglichen Wahrscheinlichkeiten ab. Tatsächlich ist Aussage des Tests dann aber nur, dass die Hypothese (ohne jetzt noch mal nachzuschauen, hier p=0.5) zu 95% verworfen werden kann.
    Ich will jetzt hier aber nicht noch einmal alles durchsehen und herausfinden, was hier tatsächlich gemacht wurde. Das hätte man irgendwo mal deutlich festhalten müssen (es wären nur wenige Sätze gewesen).


    Was bei Moritz Artikel fehlt, ist die Art und Weise wie der Hypothesentest gemacht wurde (weil er natürlich keine Ahnung hat, was das ist). In einem wissenschaftlichen Aufsatz würde man dies unter dem Punkt "Methoden" aufführen. Ich habe den verwendeten Test aber bereits verlinkt. Wie ich vorgerechnet habe, zeigt er bei einem Alpha-Fehler von 0,05 signifikantes Ergebnis. Umgangssprachlich kann man jetzt sagen: Die Chance zu gewinnen ist für denjenigen der anfängt bzw. nicht anfängt mit 95%iger Wahrscheinlichkeit nicht gleich groß.


    Ich verstehe das also richtig, dass die Hypothese p=0.5n (resp. p kleiner gleich 0.5) war?


    Letztendlich sagt diese Studie nur aus, ob dieses Phänomen überproportional Häufig vorkommt oder nicht (tut es).


    Die Studie sagt nicht besonders viel aus, musst du auch zugeben. Die Ergebnisse eines ähnlichen Versuches von vor 4 Jahren haben ganz andere Ergebnisse ergeben, die bei einem ähnlichen Testverfahren keine Ablehnung zur Folge gehabt hätten.


    Wie gesagt ist die Fragestellung meiner Meinung nach auch nicht "Ist der Würfelwurf das Problem?" sondern eher nur "Tritt dieses Phänomen überproportional häufig auf?". Und letztere Frage kann man durchaus mit "Ja!" beantworten.


    Du kannst die Frage gerne so beantworten, ob es aber de facto so ist, das wissen wir nun auch nicht. Da TCGs in der Regel recht fluide sind und sich ständig in vielerlei Hinsicht verändern, stellt sich sowieso die Frage, ob die Fragestellung so sinnvoll ist. Bei einem einfacheren Spiel wie Schach oder ganz simpel Tic-Tac-Toe kann man das schon eher fragen, zumal dort viel weniegr unklar ist als bei TCGs.


    Ob der "wahre Wert" am Ende aber bei 50,01% oder bei 73,45% liegt, dass kann man mit dieser Erhebung natürlich nicht beantworten. Auch stellt sich die Frage, ob ein tatsächlicher Wert von 50.01% am Ende tatsächlich eine Intervention von Seiten KONAMIS rechtfertigen würde.


    Der "wahre Wert", inwieweit diese Formulierung auch immer Sinn ergeben möge, kann nach wie vor bei 49% liegen. Der gemachte Test sagt lediglich aus, dass diese Einschätzung für den vorliegenden Datensatz ziemlich unplausibel ist.

  • Ich habe den verwendeten Test aber bereits verlinkt. Wie ich vorgerechnet habe, zeigt er bei einem Alpha-Fehler von 0,05 signifikantes Ergebnis. Umgangssprachlich kann man jetzt sagen: Die Chance zu gewinnen ist für denjenigen der anfängt bzw. nicht anfängt mit 95%iger Wahrscheinlichkeit nicht gleich groß. Mehr sagt dieser Hypothesentest nicht aus. Warum dieser Test mathematisch nicht schlüssig sein soll, erschließt sich mir aus deinem "Paper" nicht. ... ...


    So schön die Bayssche Statistik ist, so wenig macht sie hier meiner Meinung nach Sinn. ... ...


    Hallo Nimrod, zuerst zum zweiten Punkt: Bayessche Statistik macht immer Sinn. Bei Verwendung einer uninformativen a-priori-Verteilung kommt nämlich dann dasselbe raus wie bei der Verwendung der korrekten Standardmethode. Nun ist das in Deinem Fall aber anders:


    Der aus Humorgründen so genannte statistikverbreitende Zombie verwenden eine uninformativen a-priori-Verteilung und kommt auf eine Wahrscheinlichkeit von fast 98.5% für die Hypothese p>0.5, wie Du hier sehen kannst: http://www.wolframalpha.com/input/?i=integrate+f^39*%281-f%29^22*1372602244238647800+from+1%2F2+to+1


    Nun stellt sich direkt die Frage, weshalb Du ein anderes Resultat bekommst mit der Metode von http://www.mathematik-wissen.de/hypothesentest.htm. Entweder habe ich einen Rechenfehler gemacht, oder diese Methode ist fehlerhaft.


    Es ist letzteres. Der Grund liegt darin, dass dort mit Hilfe der Gaussverteilung und dem gauss'schen Fehlerintegral eine Abschätzung gemacht wird über die Binomialverteilung, die nur für grosse Stichproben durch eine Gaussverteilung angenähert werden kann. Also ist es, mit anderen Worten gesagt, für diesen Fall (und jeden Stichprobensituation) falsch. Das siehst Du auch daran, dass Du 95% kriegst für p>0.5, wo der wahre Wert fast 98.5% ist. Auch steht dort, die Nullhypothese sei p=0.5; verwendet wird aber effektiv eine Nullhypothese von p>0.5 gegen die Hypothese p<0.5. Die Wahrscheinichkeit für p=0.5 ist null (siehe unten).


    Das beantwortet nun auch den ersten Teil: ich wollte und konnte in meinem Paper natürlich nicht alle Fehlüberlegungen erwähnen und wiederlegen, die an Unis gelehrt werden.


    Das wird bei dem hier gemachten Test aber getan. Die Hypothese ist p=p_0 und die Alternative eben p ungleich p_0, jedenfalls bei dem von Nimrod verlinkten Verfahren.


    Ja, das habe ich jetzt gemerkt, nachdem ich den verlinkten Text im Detail durchdacht habe, allerdings ist das ein Fehler. Das verlinkte Verfahren prüft in Wirklichkeit p>=p_0 gegen p<p_0, obwohl es im Text konsequent anders geschrieben ist. Die Wahrscheinlichkeit für p=p_0 ist aber immer null (solange man kontinuierliche Zufallsverteilungen hat). Das siehst Du daran, wenn Du fragst, wie wahrscheinlich ist es, dass p=53.67176464782895% ist und nicht irgend ein anderer Wert.


    Schliesslich zum Schach: auch dort ... auch dort ... Die meisten Schachspieler nehmen an, dass Weiss im Vorteil ist. Nun schau Dir die Statistik des Neujahrsblitzturniers in Salzburg an: http://chess-results.com/tnr120498.aspx?lan=0&art=13&wi=821 Sieg weiss : Sieg schwarz = 81:97


    Long live light!

  • Nein, die Bayessche Statistik macht imho nicht immer Sinn. Wenn du wie ich regelmäßig mit Leute zu tun hast, die von Mathematik nicht einmal den Hauch einer Ahnung haben, dann ist das von mir verwendete Verfahren sehr viel einfacher zu erklären (da kommen Begriffe wie Standardabweichung und Mittelwert vor) als dein Ansatz. Da ich 95% der Yugi-Spieler nicht einmal zutrauen würde, zwei Brüche ohne Taschenrechner zu addieren, ist bereits dieses Verfahren Way over the Top. Eine einfache Zahl wie 64% gewonnene Spiele ist für die meisten dann doch eher verständlich. Und wenn man dann noch dazu sagt, dass es statistisch signifikant ist, passt das schon. Das ist jetzt aber ein eher didaktischer Standpunkt.


    Wie ich bereits erwähnt habe, ist der Fehler in der Wahl der Teststatistik gegenüber all den anderen Fehlerquellen geradezu lächerlich klein. Daher macht eine konservative Schätzung über Gaussverteilung imho mehr Sinn. Es ist der gleiche Grund, aus dem viele Statistiker auch solche Dinge wie den exakten Test nach Fischer ablehnen. Die eigentlichen Fehler liegen in der Regel ganz woanders. Man benutzt nicht die "simplere" Teststatistik, obwohl man weiß, dass sie fehlerhaft ist. Man benutzt sie, WEIL man sich der vielen Fehlerquellen bewusst ist. Das mag jetzt ein sehr pragmatischer Ansatz sein. Aber ich bin ein großer Fan der Aussage "Keep it simple!".

  • Wenn du wie ich regelmäßig mit Leute zu tun hast, die von Mathematik nicht einmal den Hauch einer Ahnung haben, dann ist das von mir verwendete Verfahren sehr viel einfacher zu erklären (da kommen Begriffe wie Standardabweichung und Mittelwert vor) als dein Ansatz.


    So nach dem Motto: Ich lüge Dich an, aber wenigstens ist es eine Lüge, die Du verstehen kannst? Nö, das hab ich nicht im Angebot.


    Mein Ansatz ist: Mathe ist wie jedes Handwerk, das Resultat ist nur brauchbar wenn es jemand macht der es kann. Das Argument Man benutzt nicht die "simplere" Teststatistik, obwohl man weiß, dass sie fehlerhaft ist. Man benutzt sie, WEIL man sich der vielen Fehlerquellen bewusst ist. höre ich immer wieder, aber ich finde es wirklich ausserordentlich gefährlich. Noch nie ist es besser geworden, wenn man ungenau erhobene Daten zusätzlich noch falsch auswertet. Jedes Mal, wenn Du das auch nur aussprichst, verleitest Du Leute dazu, das Hirn auszuschalten.


    Wenn Du wie ich regelmässig in Projekten zu tun hättest, wo Statistikfehler viel Geld kosten, dann würdest Du es wohl auch so sehen ;)


    Long live light!