Si c est pas rigged c est quoi?

Vince79 wrote:

Bonne idée mais avant cela il faut ABSOLUMENT se poser cette question primordiale :
“A partir de quelle improbabilité de badrun je considère que les tirages sont pipés ?”

iriebete wrote:

[quote]
Cette question se pose non pas sur un nombre de mains nécessaires pour estimer une étude valable mais du niveau de probabilité cité ci-dessus : 0,0002% Est-ce suffisant pour estimer que les tirages sont pipés ? ou faut-il atteindre un niveau de probabilité de 0,0000000000001% ? Ou faut-il atteindre un niveau de probabilité encore plus faible ?[/quote]

Et surtout ne pas raisonner en nombre de mains nécessaire.

Sur Ps , chaque fois que j’ ai cash out , je l’ai senti passer imo.
Beaucoup Beaucoup de joueurs disent la même la chose , même des reg’s de 1K , c’est vraiment dur de run correctement sur cette room , de là dire que c’est rigged.

J’ai tjrs mieux run sur Ongame que sur Ps perso.

pepenho wrote:

[quote] ou en fin de br ou lors de debut mtt car il y a une particularité en mtt les fish montent tjr des stack impressionant en debut de mtt , les fish touchent absolument tout ce qu ils veulent en debut de mtt en jouant comme des grosses merdes !
.[/quote]

5 fishs s’envoient en l’air preflop avec 5 mains pourries, qui gagne?

Réponse : Pas le reg qui attend ses AA

C’est comme une entente entre joueurs mais sans faire exprès, y a rien de rigged ici.

(Je dis bien ici car je ne veux pas m’étendre sur la riggitude ou non des salles en général)

iriebete wrote:

[quote]TicEtTac wrote:

[/quote]

J’ai regardé les deux liens, comme on dit sur 2+2 tldr.
Si tu fais allusion à ton intervention

Je ne comprends pas ce que tu essayes de dire. Part du principe (pas forcément faux) que je ne suis pas une lumière et ré explique simplement pourquoi le simulateur était biaisé.
Je sais en quoi consistent les sklansky$ et l’expected ev, mais quel est le rapport, à part comparer la courbe des sklansky$ (gains théoriques) avec les courbes représentant les différents joueurs (hypothèses de départ identiques : sd, winrate, nb mains) ?

TicEtTac wrote:

[quote]iriebete wrote:

[quote]TicEtTac wrote:

[/quote]

J’ai regardé les deux liens, comme on dit sur 2+2 tldr.
Si tu fais allusion à ton intervention

[/quote]

J’ai écrit ca :
"tiens voila une intervention d’un certain irieb qui indique l’ERREUR :
http://www.wam-poker.com/forums/simulateur-de-chatte-41040?t=41040&postdays=0&postorder=asc&start=727 "

Si tu cliques sur le lien tu tombes sur l’intervention et je ne vois pas pourquoi tu fais référence à une autre intervention. Je te répête donc que j’indique l’erreur dans CETTE intervention. Apres si tu désires l’explication en détail, tu lis le liens original en entier (ca te permettra de voir la réaction des communautés ET des modérateurs lorsqu’on n’est pas d’accord avec eux : insulte, demande de ban, etc… juste lamentable).

d’ailleur ce fameux LEREN86 comprends tres bien ce que je veux dire:
http://www.wam-poker.com/forums/simulateur-de-chatte-41040?t=41040&postdays=0&postorder=asc&start=741

iriebete wrote:

[quote]
Peut-être parce que tu ne lis pas vraiment les arguments. On te donne le lien original ET un résumé, et voila que tu reposes la question du « POURQUOI ? » :ohmy: On a l’impression que tu n’as pas de temps à perdre à lire et à essayer de comprendre les arguments de chacun. Comment veux-tu alors avoir trace d’arguments valables dans ce cas ? :blink:[/quote]

Perso jme considère comme quelqu’un de pas trop teubé, et à la décharge de tic et tac (qui dit ne pas être forcément une lumière) tes liens sont clairement illisibles.

Lien 1: simulateur > spam:« c’est trop cool » > bruit gaussien :blink: > spam « ça donne quoi avec mes stats »> attention y a une erreur> spam etc etc…

Lien 2: Tu dis qu’une simple courbe slansky (expect value) est suffisante. Enfin pour ce que j’en ai compris, suivi de spam "ce mec est trop lourd> spam « c’est pas vrai »> etc etc

Donc il ne serait pas superflu de nous expliquer en quoi les slansky$ nous permettent de vérifier si une room est rigged ou pas puisqu’ils ne prennent pas en compte les set up?

Par contre je suis entièrement d’accord avec ton post précédent sur l’échantillon de mains nécessaire à vérifier la tricherie.
Pou ceux qui en doutent cf vidéo de philippe sur la config du HUD où il explique qu’un pourcentage de 3bet (par exple) sur un échantillons de 10k hand tracké ne veut rien dire, ce qui est important c’est d’avoir plus d’une 50aine d’occasion de 3bet.

(http://www.poker-academie.com/video/tutorial/holdem-manager-les-statistiques-du-hud.html je crois que c’est celle-ci)

C’est le même principe pour l’expected value: si tu vas JAMAIS à tapis t’auras beau avoir 10 milliards de mains trackées tu seras toujours expected EV =reel EV.
A l’inverse si tu t’envoie en l’air préflop avec toutes tes mains et qu’il y a toujours une personne pour te payer, une centaine peut suffire… Tout con!:silly:

bbob08 wrote:

LOL

Et voilà ca recommence. Vous n’allez JAMAIS à la source de l’info. Tu ne t’appuie pas sur ce que j’ai écrit mais sur ce qu’un autre posteur dit ce que j’ai écrit. En clair, vous n’allez jamais vérifier l’information :blink:

iriebete wrote:

[quote]
d’ailleur ce fameux LEREN86 comprends tres bien ce que je veux dire:
http://www.wam-poker.com/forums/simulateur-de-chatte-41040?t=41040&postdays=0&postorder=asc&start=741[/quote]

J’étais en train d’écrire quand t’as posté ça.

Cependant si LEREN86 est aussi un matheux ça ne nous avance pas et mon post précédant est toujours d’actualité.

iriebete wrote:

Oui sauf que le nombre de mains nécessaires et la “tolérance” de probabilité (ou d’improbabilité) que l’on choisit sont liés.

En effet, si on considère :

  • P comme la probabilité de perdre dans une situation d’allin préflop
  • T comme la tolérance de probabilité à partir de laquelle on considère que c’est “rigged”
  • x comme étant le nombre de tirages

Pour trouver le nombre de tirages (qui finiront perdants) nécessaires pour atteindre le niveau de tolérance choisit, il faut résoudre l’équation : P^x = T (x étant l’inconnue)

On en déduit :
ln(P^x)=ln(T)
xln§=ln(T)
x = ln(T)/ln§
CQFD (avec ln, la fonction logarithme népérien)

Reprenons ton exemple pour vérifier :
Situation de 95/5
Proba de perdre : P = 5% = 0.05
Tolérance choisie : T = 0.00000000001% = 0.0000000000001

x = ln(0.0000000000001)/ln(0.05) = 9,99 tirages nécessaires

Donc dans ce cas précis, il faut seulement 10 tirages pour atteindre ce niveau d’improbabilité.

Si on reprend le même raisonnement mais pour un coin flip (P = 50% = 0.5)

x2 = ln(0.0000000000001)/ln(0.5) = 43,18 tirages nécessaires

Est-ce que cette tolérance est adéquate ?

On a choisit T = 0.00000000001% = 0.0000000000001 = 10^(-13)
Plus clairement, la probabilité de perdre 10 fois d’affilée des 95/5 arrive en moyenne à 1 joueur sur 10^(13) joueurs (10 000 milliards).

Je ne sais pas combien il y a de joueurs de poker online mais même si l’on considère que toute la planète joue au poker online soit environ 6 milliards, cela revient à dire que cette probabilité arrive à 0.0006 joueurs sur toute la planète.

Cela paraît donc suffisant :smiley:

(Je ne sais pas si ma “démonstration” est vraie mais elle me paraît cohérente)

CONCLUSION
Le seul problème c’est que l’on parle en évènements indépendants mais d’affilée et je ne pense pas que l’on peut qualifier la riggitude d’une room en se basant là-dessus, c’est pour cela que l’on dit qu’un grand nombre de mains est nécessaire.

En effet, si je joue 1 million de 95/5 et que je m’aperçois que j’en gagne (seulement) 94% alors dans ce cas, je peux parler de riggitude parce qu’avec 1 million je peux me considérer comme étant à l’infini, je devrais donc m’attendre à tourner autour de 95% (avec quelle intervalle de tolérance par contre ???).
Car l’estimation de la probabilité d’un évènement = limite Nf/N quand Nf tend vers l’infini avec N le nombre de tirages et Nf le nombre de fois où je gagne (ou le nombre de fois que je perd, cela revient au même).

Ceci est, je pense, la seule manière de déterminer si une room est clean.

iriebete wrote:

SI JE VAIS A LA SOURCE DE L INFO, ou alors revérifie ton lien qui m’envoie à:

"Posté le: 11/07/2009 00:36 Sujet du message:
Excellent !!

50 pages pour :
Se convaincre que les mauvais résultats ne sont dut qu’à la “variance” dut au fait que l’on a pas encore atteind le “long-terme”.
Se convaincre que de mauvais résultats ne sont pas dut à autre choses. Se convaincre que meme les bons joueurs peuvent etre perdants à cause de cette variance.
Se convaincre que cette variance est encore presente car le long-terme est finalement innaccessible.

Bref… Se convaincre que si on est perdant ce n’est uniquement qu’à cause du facteur malchance présent en permanence au poker.

CE simulateur ne sert qu’à cela. A vous convaincre vous meme que le hasard ne fait vraiment pas bien les choses (contrairement à ce que dit le dicton… ET les probas).

Et pour cela quoi de mieux que de RAJOUTER une variable random (alors que la SD comprend déjà cette variable) pour démontrer que la variance pour un meme niveau de jeu peut etre ENORME

LOL"

Posté le: 11/07/2009 01:15 Sujet du message:
vorty44 a écrit:
En tout cas le fait que tu te vois dans la moyenne de TON graph ne te permet pas de déduire quoi que ce soit sur ton jeu, qui sait si en réalité tu ne devrais pas être à -100 ou à +1300.

Pour cela il faudrait isoler le facteur chance (ce que ne fais pas le simulateur, bien au contraire). En éliminant les resultats dut au facteur chance (ou malchance) on peut estimer son vrai niveau de jeu (et donc son vrai winrate). C’est tout con. Pour cela, il suffit de s’appuyer sur la methode sklansky$. Mais bon… ca ca va pas plaire à tout le monde

Soit: 1)blablabla
2)la standard déviation du simulateur comprend déjà une random qui est donc doublée puisque le mec à rajouté un random+SD dans son simulateur qui est donc faux
3)spam
4)Methode slansky

Ce qui ne répond pas à ma question: pourquoi slansky qui ne calcule pas les set up?

Ouais alors j’avais bien lu tes liens iriebet, j’ai juste pas trouvé la réponse.
J’ai cru comprendre que le simulateur était biaisé à cause d’une variable random (mais laquelle ? modélisée de quelle façon ?) qui serait ajoutée en plus de la standard deviation alors que le côté aléatoire est déjà inclus dans la variable sd. sd=0 <=> pas de variation par rapport aux résultats attendus en terme de probabilité.

Et alors ? la correction a-t-elle était faite ? si non pourquoi ? Si oui, quels sont les nouveaux résultats ?

Tout ça pour dire qu’il suffit de vérifier les résultats de seulement 10 95%/5% d’affilés pour déduire la riggitude ou non d’une room ?
Ok, mais comme le dit vince (j’ai pas vérifié les calculs), ça n’arriverait qu’une fois sur 10^13.
On en revient au point de départ alors, faut donc un gros échantillon de main ou prier pour jouer 30 flips à la suite les uns des autres.

TicEtTac wrote:

[quote]Ouais alors j’avais bien lu tes liens iriebet, j’ai juste pas trouvé la réponse.
J’ai cru comprendre que le simulateur était biaisé à cause d’une variable random (mais laquelle ? modélisée de quelle façon ?) qui serait ajoutée en plus de la standard deviation alors que le côté aléatoire est déjà inclus dans la variable sd. sd=0 <=> pas de variation par rapport aux résultats attendus en terme de probabilité.[/quote]
Si tu l’as trouvé mais tu ne la vois pas ! La preuve puisque en fait tu as tres bien compris (“j’ai cru comprendre que” ) :slight_smile:

Non pas de correction. Pourquoi ?

  1. je pense qu’il y a beaucoup trop de variable pour pouvoir modéliser la “variance” ^^
  2. Je ne vois pas l’interet d’une telle modélisation.

[quote]Tout ça pour dire qu’il suffit de vérifier les résultats de seulement 10 95%/5% d’affilés pour déduire la riggitude ou non d’une room ?
Ok, mais comme le dit vince (j’ai pas vérifié les calculs), ça n’arriverait qu’une fois sur 10^13.
On en revient au point de départ alors, faut donc un gros échantillon de main ou prier pour jouer 30 flips à la suite les uns des autres.
[/quote]

Tu n’as rien compris apparemment. :blink:

Vince79 wrote:

[quote]
CONCLUSION
Le seul problème c’est que l’on parle en évènements indépendants mais d’affilée et je ne pense pas que l’on peut qualifier la riggitude d’une room en se basant là-dessus, c’est pour cela que l’on dit qu’un grand nombre de mains est nécessaire.

En effet, si je joue 1 million de 95/5 et que je m’aperçois que j’en gagne (seulement) 94% alors dans ce cas, je peux parler de riggitude parce qu’avec 1 million je peux me considérer comme étant à l’infini, je devrais donc m’attendre à tourner autour de 95% (avec quelle intervalle de tolérance par contre ???).
Car l’estimation de la probabilité d’un évènement = limite Nf/N quand Nf tend vers l’infini avec N le nombre de tirages et Nf le nombre de fois où je gagne (ou le nombre de fois que je perd, cela revient au même).

Ceci est, je pense, la seule manière de déterminer si une room est clean.[/quote]

Attention, On ne parle pas de probabilité de perdre n évenements d’affiler mais bien de perdre k évenements parmis n. J’aurai du prendre comme exemple “9 mains gagnées sur 10” cela aurait évité la confusion.

Aussi je ne suis pas sur que le terme “échantillon” soit le plus aproprié. Je veux dire par la que l’on ne va pas chercher une série de n mains perdues parmis notre historique de mains. Cela serait effectivement biaiser l’étude car on ne prendrait pas en compte des évenements. Non ! On doit prendre TOUT les événements en compte !!! En clair, à partir du moment où l’on décide de faire l’étude sur les mains à + de 80% (par exemple), il faut prendre en compte TOUTES ces mains et n’en oublier aucune afin de ne pas biaiser les données. Ensuite il suffit de calculer le taux de probabilité du badrun (ou du goodrun) sur la TOTALITE DES MAINS au fur et à mesure de la prise de données.

Et je répète donc que le nombre de mains nécessaire est inutile. En fait, ON NE PEUT PREJUGER du nombre de mains nécessaire pour “conclure” que les tirages sont pipés. Ainsi, si les tirages ne sont pas pipés, ta probabilité va tendre vers 50%, elle va donc s’éloigner de ta probabilité planché (0,00001% par exemple) du fait que tu augmentes le nombre de mains. A l’inverse, pour un algo pipés, tu tendras indéniablement vers le 0% au fil des mains.

Au final soit tu définis une proba plancher comme on l’a dit auparavant, soit tu observes la tendance de cette probabilité (solution préférable).

BREF Tous sa pour dire que de toute maniere le sujet est mort dés le début étant donner que le but de chaque room n’est pas surement pas de prouver leur racket manifeste, donc au final on ne sauras jamais rien de certain la dessus,

C’est comme avec l’état depuis des années les impôts, taxes et salaire des politique augmentent, et le gouffre du budget empire chaque années… pourtant on nous diras jamais :

" Mais oui enfaite on fait la fête avec votre pognon "

ba la c’est pareil comment veut tu qu’une activité aussi lucrative puisse etre controlé fiablement avec la masse de fric que cela brasse, ba si quelqu’un se doute de quelque choses on lui offre une fine part ( pour info le chiffre d’affaire annuel de l’industrie du jeu en france c’est 40 milliard d’€uro/ans)

Donc autant te dire que les controles sont vite réglés

ceci dit moi même on m’offre ne serai-ce que 0.1% je me charge personnellement d’éviter les remoud et j’atteste sur l’honneur que tout est en règles

MORALITÉ : SOIT tu utilise les plate forme internet pour jouer
SOIT tu te bouge et tu vas au cercle (moins de possibilité de pipage des cartes encore que…)

Voila J’ai fini ^^

[quote]Au sujet des millions de main. C’est complétement subjectif. C’est une idée complétement fausse !! ET il faut arreter de promouvoir cette idée, oui je dis bien promouvoir, car cela en devient dogmatique pour la communauté des joueurs qui la plupart n’ont pas les connaissances mathématique nécessaire mais qui n’hesiterons pas une seconde à te “bacher” quand tu emeteras l’idée de stats sur quelques dizaines de all in.
[/quote]
La loi des grands nombres est totalement subjective … Enfin quelqu’un qui redresse les travaux de Bernoulli !

[quote]9 mains gagnées sur 10 peut se traduire ainsi :

GGGGpGGGGG
GGpGGGGGGG
GGGGGGpGGG

ou vois-tu 9 mains gagnées d’affilés ? [/quote]

  1. PGGGGGGGGG
  2. GPGGGGGGGG
  3. GGPGGGGGGG
  4. GGGPGGGGGG
  5. GGGGPGGGGG
  6. GGGGGPGGGG
  7. GGGGGGPGGG
  8. GGGGGGGPGG
  9. GGGGGGGGPG
    10)GGGGGGGGGP

P(1) = P§*P(G)^9
P(2) = P(G)*P§P(G)^8 = P§P(G)^9 = P(1)
etc.
P(gagner 9/10) = P(1)+P(2)+P(3)+P(4)+…+P(10) = 10
P(1) = 10
P(10)

P(gagner 9/10) = 10*P(gagner 9 fois d’affilée (cas 10))
Ce qui revient au même

PS : J’en ai marre du débat sur les nombres de mains, je t’ai dit que c’était une façon de parler…

Jadupsky wrote:

[quote][quote]Au sujet des millions de main. C’est complétement subjectif. C’est une idée complétement fausse !! ET il faut arreter de promouvoir cette idée, oui je dis bien promouvoir, car cela en devient dogmatique pour la communauté des joueurs qui la plupart n’ont pas les connaissances mathématique nécessaire mais qui n’hesiterons pas une seconde à te “bacher” quand tu emeteras l’idée de stats sur quelques dizaines de all in.
[/quote]
La loi des grands nombres est totalement subjective … Enfin quelqu’un qui redresse les travaux de Bernoulli ![/quote]

ah ah ah.

Désolé pour toi si tu fais l’amalgame entre “loi des grands nombres” et “des millions de mains”. Je te rassure tu n’es pas le seul. Mais je suis content que tu mentionnes cette loi car justement elle indique qu’il suffit d’atteindre un nombre suffisant d’evenements pour pouvoir estimer et ce quelque soit la population totale.

Vince79 wrote:

[quote][quote]9 mains gagnées sur 10 peut se traduire ainsi :

GGGGpGGGGG
GGpGGGGGGG
GGGGGGpGGG

ou vois-tu 9 mains gagnées d’affilés ? [/quote]

  1. PGGGGGGGGG
  2. GPGGGGGGGG
  3. GGPGGGGGGG
  4. GGGPGGGGGG
  5. GGGGPGGGGG
  6. GGGGGPGGGG
  7. GGGGGGPGGG
  8. GGGGGGGPGG
  9. GGGGGGGGPG
    10)GGGGGGGGGP

P(1) = P§*P(G)^9
P(2) = P(G)*P§P(G)^8 = P§P(G)^9 = P(1)
etc.
P(gagner 9/10) = P(1)+P(2)+P(3)+P(4)+…+P(10) = 10
P(1) = 10
P(10)

P(gagner 9/10) = 10*P(gagner 9 fois d’affilée (cas 10))
Ce qui revient au même

PS : J’en ai marre du débat sur les nombres de mains, je t’ai dit que c’était une façon de parler…[/quote]

Apparemment on ne se comprend pas.
Je disais que gagner 9 fois sur 10 n’a pas la même probabilité que de gagner 9 fois d’affilé. Et je te disais ca parce que tu mentionnes à chaque fois ce terme “d’affilé”. Hors c’est le 1er cas qui nous importe dans notre contexte (vérification de tirages). Ce sont deux chose complétement différente et c’est bien pour cela que mon 1er exemple étais mal choisi car l’exemple entre dasn les 2 cas.

oui … et par exemple, pour estimer fiablement la winrate et sa variance (plutôt son écart-type) on estime le nombre suffisant d’événements souvent à 1000000 de mains pour pouvoir obtenir des résultats fiables

Jadupsky wrote:

oui … et par exemple, pour estimer fiablement la winrate et sa variance (plutôt son écart-type) on estime le nombre suffisant d’événements souvent à 1000000 de mains pour pouvoir obtenir des résultats fiables[/quote]

Oui sauf que :

  1. on ne parle pas du tout d’estimer la variance et/ou winrate (en terme de $) mais de vérifier des tirages. Cela n’a rien à voir.
  2. J’aimerai bien connaitre la formule mathématique qui démontre qu’il faut 1 million de mains ^^

Arretez de toujours revenir à ces termes. Vous (les habituez des forums de poker) faites l’amalgames entre estimer une variance engendrée par de multiples variables (tout ce que fait le jeu du poker) avec une autre variance qui s’appuie uniquement sur UNE SEULE variable : La probabilité de gagner/perdre une main all in. C’est bien du 2e cas que l’on parle ici puisque le sujet est de vérifier des tirages.

Hors - sans doute vous n’en n’avez pas conscience- mais vos arguments sont juste si l’on parle de la variance sur les gains de toutes vos mains mais n’ont aucune valeur si l’on cherche à vérifier des tirages.

Dans le 1er cas, on fait une ESTIMATION de distribution. On cherche à CONNAITRE notre vrai winrate, c’est-à-dire notre gain sans le facteur chance (utopique ??)

Dans le 2e, on fait un test de distribution, on CONNAIT la distribution (10% de bad beat sur nos all in à 90%) et on VERIFIE que les tirages suivent cette distribution.

Ce sont deux problèmes complétement différents. Hors vous appliquez le même raisonnement dans les 2 cas :blink: