Est-il possible de démontrer Syracuse avec un système binaire ?
Réponses
-
Bonjour
123rourou @
Parce que je fais l'hypothèse que Qtpair/Qtimpair
quand Un0→+∞ <1/2
on prend un entier k , qui est le nombre de chiffre d'un "grand" entier n
soit h , le nombre d'étapes Pair , et m , le nombre d'étapes Impair
théorème : qql soit n appartenant N , m/h < log(2)/log(3)
je vous laisse tirer les conclusions qui s'imposent
BERKOUK
-
"Et pour rappelle je ne parle pas de la suite de Syracuse compressé .Je ne comprends pas pourquoi tu ne comprends pas ce que je dis"J'ai parfaitement compris que tu ne parlais pas de la suite compressée.
J'ai parfaitement reformulé ton charabia.
J'ai parfaitement expliqué pourquoi je parlais de la suite compressée.
Je ne comprends pas pourquoi tu ne comprends pas ce que je dis.
Tu devrais corriger :' parce que je fais l'hypothèse etc etc '.L'hypothèse que tu fais, c'est que la limite est strictement supérieure à 2, et non strictement inférieure à 1/2.
Faut que je corrige tout dans cette discussion, c'est pénible.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Bonjour
un exemple contredit le théorème : n = 7647 ( c'est faux)n chiffre données 123 rourou qtImpair/qtPair LOG(2)/LOG(3) SI((I1<J1);1;0) 478 qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 478 0,470588235 0,630929754 1 956 qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 956 0,515151515 0,630929754 1 1912 qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 1912 0,470588235 0,630929754 1 3824 qtPair /qtImpair=36/14=2.5714285715 nombre de chiffre pour n 3824 0,388888889 0,630929754 1 7647 qtPair /qtImpair=30/20=1.5000000000 nombre de chiffre pour n 7647 0,666666667 0,630929754 0 15293 qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 15293 0,5625 0,630929754 1 30566 qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 30586 0,515151515 0,630929754 1 61172 qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 61172 0,5625 0,630929754 1 122343 qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 122343 0,612903226 0,630929754 1 244685 qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 244685 0,470588235 0,630929754 1 489370 qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 489370 0,5625 0,630929754 1 978739 qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 978739 0,515151515 0,630929754 1 1957477 qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 1957477 0,612903226 0,630929754 1 3914953 qtPair /qtImpair=35/15=2.3333333334 nombre de chiffre pour n 3914953 0,428571429 0,630929754 1 7829905 qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 7829905 0,515151515 0,630929754 1 15659809 qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 15659809 0,515151515 0,630929754 1 31319618 qtPair /qtImpair=37/13=2.8461538462 nombre de chiffre pour n 31319618 0,351351351 0,630929754 1
sans commentaires
BERKOUK
-
On ne contredit pas un théorème sur une limite de suite en regardant un de ses termes voyons.Ou alors on ne parle pas du même théorème.Peux-tu préciser de quel théorème tu parles quand dis annoncer le contredire ?
-
Bonjour
soit h , le nombre d'étapes Pair , et m , le nombre d'étapes Impair , dans une suite de Collatz
théorème : qql soit n appartenant N , m/h < log(2)/log(3)
BERKOUK -
Peux-tu me dire quel est le nombre d’étapes paires dans a suite $S(0)$ (si on s’autorise zéro comme premier terme) ? Juste pour savoir avec qui je discute.
-
Bonjour
S(0) =27
Syr(27) :27 - 82 - 41 - 124 - 62 - 31 - 94 - 47 - 142 - 71 - 214 - 107 - 322 - 161 - 484 - 242 - 121 - 364 - 182 - 91 - 274 - 137 - 412 - 206 - 103 - 310 - 155 - 466 - 233 - 700 - 350 - 175 - 526 - 263 - 790 - 395 - 1186 - 593 - 1780 - 890 - 445 - 1336 - 668 - 334 - 167 - 502 - 251 - 754 - 377 - 1132 - 566 - 283 - 850 - 425 - 1276 - 638 - 319 - 958 - 479 - 1438 - 719 - 2158 - 1079 - 3238 - 1619 - 4858 - 2429 - 7288 - 3644 - 1822 - 911 - 2734 - 1367 - 4102 - 2051 - 6154 - 3077 - 9232 - 4616 - 2308 - 1154 - 577 - 1732 - 866 - 433 - 1300 - 650 - 325 - 976 - 488 - 244 - 122 - 61 - 184 - 92 - 46 - 23 - 70 - 35 - 106 - 53 - 160 - 80 - 40 - 20 - 10 - 5 - 16 - 8 - 4 - 2 - 1
La durée du vol pour 27 est de 111 et son altitude est de 9232.
h = nombre d'étapes Pairs = 16+15+13+21+5=70
m= nombre d'étapes Impairs =12+10+10+7+2 = 41
vérification du théorème : m/h < log(2)/log(3)
m/h = 41/70 = 0.585714285
log(2)/log(3) = 0.630929753 ==> 0.585714285 < 0.630929753 "CQFD" .
BERKOUK
-
Houlala, ok.Dans ce cas, la notation $S$ (avec un seul argument) est bien mal choisie. C’est donc cohérent avec tout l’ensemble.
-
Sauf erreur de ma part, ta formule sort de ce PDF https://www.cristal.univ-lille.fr/~jdelahay/SIME/Cours/Syracuse_poly.pdfvoir page (21/22). Bon, après un petit week-end de calcul. Il n'y a pas de raréfaction des nombres pairs. Disons que ce n'est pas significatif. Pour écrire le dernier 'n' de la liste, il faut 120 millions de chiffres. Et la mesure se fait sur les 50 premiers termes de la suite.qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 478
qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 956
qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 1912
qtPair /qtImpair=36/14=2.5714285715 nombre de chiffre pour n 3824
qtPair /qtImpair=30/20=1.5000000000 nombre de chiffre pour n 7647
qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 15293
qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 30586
qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 61172
qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 122343
qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 244685
qtPair /qtImpair=32/18=1.7777777778 nombre de chiffre pour n 489370
qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 978739
qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 1957477
qtPair /qtImpair=35/15=2.3333333334 nombre de chiffre pour n 3914953
qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 7829905
qtPair /qtImpair=33/17=1.9411764706 nombre de chiffre pour n 15659809
qtPair /qtImpair=37/13=2.8461538462 nombre de chiffre pour n 31319618
qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 62639235
qtPair /qtImpair=34/16=2.1250000000 nombre de chiffre pour n 125278470voici les stats mais cette foi sur tout les élément de la listeqtPair /qtImpair=278/117=2.3760683761 qt Element dans U_n =395C'est tout de même bizarre que je n'arrive pas à mesurer une évolution de la densité des nombres pairs. iI y a quelque chose qui m'échappe.Une idée constructive de préférence, ou quelque chose pour justifier ces mesures éventuellement
qtPair /qtImpair=784/378=2.0740740741 qt Element dans U_n =1162
qtPair /qtImpair=2002/1030=1.9436893204 qt Element dans U_n =3032
qtPair /qtImpair=3579/1792=1.9972098215 qt Element dans U_n =5371
qtPair /qtImpair=6695/3292=2.0337181045 qt Element dans U_n =9987
qtPair /qtImpair=14683/7400=1.9841891892 qt Element dans U_n =22083
qtPair /qtImpair=28182/14053=2.0054080980 qt Element dans U_n =42235
qtPair /qtImpair=56641/28281=2.0027933949 qt Element dans U_n =84922
qtPair /qtImpair=112892/56316=2.0046168052 qt Element dans U_n =169208
qtPair /qtImpair=230529/115626=1.9937470812 qt Element dans U_n =346155
qtPair /qtImpair=452445/225818=2.0035825311 qt Element dans U_n =678263
qtPair /qtImpair=914344/457601=1.9981250041 qt Element dans U_n =1371945
qtPair /qtImpair=1831286/916841=1.9973866789 qt Element dans U_n =2748127
qtPair /qtImpair=3638298/1818367=2.0008601124 qt Element dans U_n =5456665
-
Le ratio de 2 que tu obtiens est complètement normal.
Je proposais une démonstration (pas très rigoureuse, mais on s'en contentera) ici. Tu n'as pas voulu lire cette démonstration, parce que je m'appuyais sur l'algorithme de suite compressée.
Là, tu traites un nombre avec 120 Millions de chiffres, c'est énorme (bien), mais c'est un seul nombre. Et donc, selon la chance que tu as, tu peux tomber sur un nombre avec un parcours plus ou moins accidenté.
Tu devrais traiter par exemple 5000 nombres, pris au hasard, tous entre 100 000 Milliards et 100 010 Milliards par exemple,
Et regarder les 1000 premiers étapes, comme tu le faisais précédemment,
Et garder tous les résultats individuels.
En moyenne, tu auras 666.7 étapes paires et 333.3 étapes impaires. Mais ce qui peut être intéressant (pour toi), c'est de regarder la disparité. Sur 5000 essais, combien ont donné 666 étapes paires, combien ont donné 'seulement' 630 ou 640 étapes paires. Quels sont les extrêmes ?
Ca te donnera une idée de la dispersion.
Tout le sujet de la conjecture, c'est de se poser la question : y-a-t-il des nombres qui ont un parcours totalement atypique ?
Si on veut faire des calculs sur le sujet, les seuls calculs intéressants sont donc des calculs de dispersion, quels sont les extrêmes.
Mais j'ajoute quand même : à moins de tomber par le plus grand des hasards sur un nombre qui aboutirait sur un cycle, des calculs de ce genre ne feront rien avancer sur la question de la conjecture.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Je ne suis pas d'accord, le fait de changer la parité chaque fois que tu as un nombre impair n'est pas suffisant. Il faudrait changer la parité quand tu as un nombre pair aussi. Et dans ce cas, on s'éloigne un peu trop de la suite de Syracuse . Ensuite, je suis actuellement en train d'essayer de voir si ma mesure est pertinente à partir d'un grand nombre. Je fais une mesure sur les 50, 100 et 1000 premiers échantillons, puis j'augmente n +1 . Je peux poster les résultats, mais j'ai très peu d'écart dans les moyennes, donc pour moi la mesure a du sens, c'est juste le résultat qui ne me convient pas.Donc pourquoi il y a un ratio de 2 ?
-
Donc pourquoi il y a un ratio de 2 ?Je pourrais te recopier mon message de samedi, qui répondait déjà à la question, mais ça ne servirait à rien. Tentons autre chose.
On a une pièce équilibrée, et on joue à Pile ou Face. Les 2 faces ont la même probabilité de sortir.
On a 2 compteurs, Pair et Impair et l'expérience s'arrête quand Pair+Impair atteint le nombre 1000.
On lance donc la pièce autant de fois que nécessaire.
Quand Pile sort, on fait Impair=Impair+1 et Pair=Pair+1 (sauf si on vient de passer ce cap de 1000)
Et quand Face sort, on fait Pair=Pair +1.
Comme tu es visiblement assez à l'aise pour programmer, tu peux programmer cette petite simulation, et la lancer plein de fois, tu verras que tu vas obtenir Pair toujours assez proche de 667.
Tu peux même la lancer 5000 fois, et noter les différents résultats. A la louche, tu devrais obtenir pratiquement toujours entre 650 et 680 Pairs, à part quelques séries 'malchanceuses'.
Ensuite tu peux revenir à Syracuse, faire ce que je proposais dans mon précédent message.
Tu choisis un nombre au hasard entre 100 000 Milliards et 100 010 Milliards, tu regardes les 1000 premières étapes du processus de Syracuse, et tu comptes le nombres d'étapes paires.
Et tu répètes l'expérience 5000 fois.
A la louche, tu devrais obtenir pratiquement toujours entre 650 et 680 Pairs, à part quelques séries 'malchanceuses'. (oui, j'ai fait un copier coller...)
Compare les résultats de ces 2 exercices, tu verras que tu obtiens des comptages très proches.
Statistiquement, les 2 exercices en question sont strictement identiques.
Je te laisse méditer là-dessus.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Ok, tu m'as convaincu pour le 2,et en plus j'ai déjà d'accord avec toi:
Ensuite, je suis assez étonné que personne n'ait percuté. Si je mesure deux fois plus d'entiers pairs que d'entiers impairs dans U_n , cela veut dire que je fais deux fois plus de divisions que de multiplications. Et comme 2 * 2 > 3, comment puis-je faire diverger le système ?Il reste mon histoire de raréfaction, parce que si j'ai raison le bouzin divergerais cela serait rigolo non ?
-
De toute manière, pour moi, l'approche statistique est une impasse. Je m'explique :Syracuse est une boîte noire. Chaque fois que je présente un entier impair, il en ressort un entier pair, et chaque fois que je présente un entier pair, il en ressort un entier impair. Cela est dû au fait que je suis dans un monde où les entiers de la forme $2^n p$ n'existent pas.Maintenant, si je reviens dans la vraie vie, je constate qu'il y a deux fois plus d'entiers pairs. Cela signifie donc que dans la suite de Syracuse, il y a autant d'entiers de la forme $2^n.p$ que d'entiers impairs, et cela n'est pas possible, car cela contredit tout ce que j'ai appris, étudié et peut-être compris. En gros, ce tapis accélère ou ralentit, mais il ne peut pas avoir une vitesse constante.Après, je n'ai pas effectué suffisamment d'analyses statistiques dans mon cursus pour déterminer si les problèmes sont équivalents. Et, justifier cela de cette manière me semble être une impasse. Tu peux noter l'utilisation du conditionnel
-
Tu parles de raréfaction... mais il n'y a pas de raréfaction.
En fait, il peut y avoir des 'parasites' pour les petits nombres. Et ce facteur 2 qui est explicable n'est pas totalement flagrant quand on fait des expériences sur les petits nombres.
Par exemple, à un moment, tu parlais de facteur 1.5 et 1.85 qui ressortaient souvent. C'était bidon.
Quand tu cherches 2 nombres dont la somme donne 20, et l'un est à peu près le double de l'autre, il n'y a pas 36 solutions, il y a (8,12) (et donc ratio 1.5), il y a (7,13) (et donc ratio 1.85) , il y a (6,14) (et donc ratio 2.33) et enfin il y a (5,15) (et donc ratio 3).
Pas de pot, aucune combinaison ne donne un ratio très proche de 2 !
Et c'est exactement ce que tu analysais dans un de tes premiers tableau.
Tu as fait l'expérience, tu as vu beaucoup de 2.33, et tu as considéré que c'était la valeur normale pour les petits nombres.
Et comme tu avais 2 pour les plus grands nombres (en regardant beaucoup plus que 20 étapes), tu as conclu à une raréfaction.
Sur les petits nombres, au lieu de regarder les 20 premières étapes, regarde les 21 premières étapes, et tu verras beaucoup de cas avec (7,14) et donc un ratio de 2 exactement.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Je trouve ce débat particulièrement stérile, mais je me décide quand même à donner un avis. Voici un petit bout de code en langage Wolfram, que j'ai la flemme de transcrire en Python :
a=IntegerExponent[3#+1,2]&/@Range[1,99999,2];
On prend tous les entiers impairs de 1 à 99 999, soit les 50 000 premiers. Pour chacun d'eux on calcule 3n+1 et on regarde combien de fois on peut diviser ce résultat par 2. Résultat, au format "nombre de divisions par 2 | nombre d'occurrences" :
1 | 25 000
2 | 12 500
3 | 6 250
4 | 3 125
5 | 1 562
6 | 782
7 | 390
8 | 196
9 | 97
10 | 49
11 | 24
12 | 13
13 | 6
14 | 3
15 | 1On peut prendre les 100 000 premiers milliards de nombres impairs, ça ne changera rien à cette répartition, laquelle n'a aucun lien avec les suites de Collatz (à part le 3n+1).
D'autre part, les termes pairs ont été importants aussi longtemps qu'on ne savait pas calculer en une seule opération le nombre de divisions de 3n+1 par 2. Aujourd'hui qu'on sait le faire, les termes pairs n'ont plus aucun intérêt. Les seuls qui importent sont les termes impairs.
-
Bonjour
d'accord pour ce n 7647 :
qtPair /qtImpair=30/20=1.5000000000 nombre de chiffre pour n 7647 , on a seulement les 50 premiers termes Pairs j'espére que le rapport réel
(qtpair /qtImpair) < 0.63092975data 123rourou :voici les stats mais cette foi sur tout les élément de la liste qtImpair /qtPair log(2)/log(3) si(j2<k2);1;0) qtPair /qtImpair=278/117=2.3760683761 qt Element dans U_n =3950,420863309 0,63092975 1 qtPair /qtImpair=784/378=2.0740740741 qt Element dans U_n =1162 0,482142857 0,63092975 1 qtPair /qtImpair=2002/1030=1.9436893204 qt Element dans U_n =3032 0,514485514 0,63092975 1 qtPair /qtImpair=3579/1792=1.9972098215 qt Element dans U_n =5371 0,500698519 0,63092975 1 qtPair /qtImpair=6695/3292=2.0337181045 qt Element dans U_n =9987 0,491710232 0,63092975 1 qtPair /qtImpair=14683/7400=1.9841891892 qt Element dans U_n =22083 0,503984199 0,63092975 1 qtPair /qtImpair=28182/14053=2.0054080980 qt Element dans U_n =42235 0,498651622 0,63092975 1 qtPair /qtImpair=56641/28281=2.0027933949 qt Element dans U_n =84922 0,498848457 0,63092975 1 qtPair /qtImpair=112892/56316=2.0046168052 qt Element dans U_n =169208 0,501568132 0,63092975 1 qtPair /qtImpair=230529/115626=1.9937470812 qt Element dans U_n =346155 0,501568132 0,63092975 1 qtPair /qtImpair=452445/225818=2.0035825311 qt Element dans U_n =678263 0,499105969 0,63092975 1 qtPair /qtImpair=914344/457601=1.9981250041 qt Element dans U_n =1371945 0,500469189 0,63092975 1 qtPair /qtImpair=1831286/916841=1.9973866789 qt Element dans U_n =2748127 0,500654185 0,63092975 1 qtPair /qtImpair=3638298/1818367=2.0008601124 qt Element dans U_n =5456665 0,499785064 0,63092975 1
c'est ok
pour avoir le cœur net pouvez vous calculer pour ce même nombre ci-joint :
-
Cette discussion sur la conjecture de Syracuse est stérile.
Oui, ce n'est pas faux.
Mais soyons honnête, TOUTES les discussions sur la conjecture de Syracuse qu'on peut voir sur ce forum sont stériles.
Et celle-ci semble une des moins stériles, puisque j'ai le sentiment que le point de vue de 123rourou a largement évolué en 4 ou 5 jours.
Par ailleurs faut-il s'interdire une discussion, sous prétexte qu'elle est stérile ?Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
C'est tout de même bizarre que je n'arrive pas à mesurer une évolution de la densité des nombres pairs. iI y a quelque chose qui m'échappe.
Pour l'instant, je n'ai rien trouvé de ce qui devrait être là, ou je ne le vois pas. ou il y a une pb ailleurs
@Wilfrid Nous sommes sur la suite de Syracuse ou les éléments de Syracuse , pas sur $ N $
Résultat, au format "nombre de divisions par 2 | nombre d'occurrences" :Tu peux expliquer un peu ou avec un peu plus en détail stp
Berkouk2 La limite de log(2)/log(3) est basée sur l'hypothèse que cela converge. donc ...
Et je suis d'accord pour dire que cela tourne en rond pour l'instant. II y a quelque chose qui m'échappe. -
Il n'y a pas de raréfaction, le rapport de 2 que tu as trouvé, il est là, il est réel, explicable, et (hormis les petits nombres où il y a des 'parasites') il est constant.
Mais ce rapport de 2, ce n'est qu'une moyenne. Si on prend 1000 nombres au hasard entre A et A+100000000, tu auras en moyenne un rapport proche de 2, mais il peut y avoir des disparités fortes, et c'est parce qu'il y a des disparités que la conjecture existe.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
123rourou a écrit :
Tu peux expliquer un peu ou avec un peu plus en détail stpSur les 50 000 premiers nombres impairs $n$, $3\,n+1$ est divisible 25 000 fois par $2^1$, 12 500 fois par $2^2$, 6250 fois par $2^3$, etc. Par conséquent, si dans une suite de Collatz on trouve qu'une seule division de $3\,n+1$ par 2 est majoritaire – ce qui provoque sa croissance puisque ça revient sensiblement à multiplier $n$ par $3/2$ –, on ne peut pas le lier directement au premier terme de la suite et s'enquérir si d'autres premiers termes donneraient des résultats différents.
-
Sur les 50 000 premiers nombres impairs n, 3n+1 est divisible 25 000 fois par 2^1, 12 500 fois par 2^2, 6250 fois par 2^3, etc.Donc, autour de $U_{n0}$, qu'est-ce qui se passe ? Allez au hasard pour les 10, 50, 100 ou 1000 premiers termes de la suite.Personnellement, je pense que je ne devrais pas avoir autant de nombres pairs il devrais y avoir une raréfaction....10 | 49
11 | 24
12 | 13
13 | 6...Par ce que ces valeurs sont loin de $ U_{n0 } $. Je ne suis pas sûr d'avoir été clair, mais en gros, voici l'idée. Et donc$ \dfrac{Qt_{pair}}{Qt_{impair}} \underset{U_{n0} \to +\infty}{\longrightarrow} <\dfrac{1}{2} $. -
Tu disais ici que tu étais convaincu par ce rapport de 2 (2 fois plus de pairs que d'impairs) en moyenne.
Mais en fait, tu n'es toujours pas convaincu.
D'ailleurs, dans le message en question, tu disais : oui, c'est clair, je vois pourquoi on a toujours en moyenne 2 fois plus de pairs que d'impair,
Et tu disais sur la dernière phrase tout le contraire : "Il reste mon histoire de raréfaction"
Soit il y a un rapport de 2 qui est constant, soit il y a raréfaction ... il faut choisir.
Pour la n-ième fois, il n'y a pas de raréfaction.
Si tu n'es pas convaincu, revenons aux bases.
- Qu'appelles tu raréfaction ?
- qu'est ce qui te fait penser qu'il y a raréfaction, donne un lien vers les résultats qui te font penser ça (pour donner un lien vers un message de ce forum, il faut aller sur le message en question, survoler la date d'envoi avec la souris, et faire 'copier l'adresse du lien' Puis coller le lien ici).Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Ma réponse est 3 /4 mgs messages plus hautJe ne sais pas comment vous faites pour créer un lien vers un message déjà posté sur le forumDe toute manière, pour moi, l'approche statistique est une impasse. Je m'explique :Syracuse est une boîte noire. Chaque fois que je présente un entier impair, il en ressort un entier pair, et chaque fois que je présente un entier pair, il en ressort un entier impair. Cela est dû au fait que je suis dans un monde où les entiers de la forme $2^n.p$n'existent pas.Maintenant, si je reviens dans la vraie vie, je constate...
-
Les entiers de la forme $2^n.p$ sont là à 50%… il s’agit des entiers pairs. Dire qu’ils n’existent pas est étrange.Remarque : pour viser un message précisément, il suffit de cliquer sur l’heure (près du pseudo de l’auteur) dudit message. Cela renvoie un lien vers ledit message.
-
Pour créer un lien, je répète :
Tu as posté ce message à 13h24
Tu déplaces la souris vers l'heure (13h24) en dessous de ton pseudo. Le curseur devient une main, au lieu d'une flèche. Tu fais clic-droit, et tu choisis 'copier l'adresse du lien'
Et ensuite tu fais Ctrl-V pour copier ce lien dans ton message.
La raréfaction :
ce que tu as copié ne parle pas de raréfaction. Ce que tu racontes (en admettant que ce soit vrai, je vais y revenir), ça s'applique aussi bien aux nombres de l'ordre de $10^{20}$ qu'aux nombres de l'ordre de $10^{200}$ : tu expliques qu'il n'y a pas de raréfaction, et tu t'étonnes ensuite qu'il n'y en ait pas.
Quand tu présentes un entier impair, il en ressort un entier pair. ok.
Quand tu présentes un entier pair, il en ressort un entier qui a 1 chance sur 2 d'être pair et 1 chance sur 2 d'être impair. Ce n'est pas ce que tu écris.
Certes, en répétant l'opération, tu arriveras bien à un moment à un entier impair. Mais pas forcément dès la première opération.
Et dans tes comptages, tu vas incrémenter ton compteur 'pair' autant de fois que d'étapes paires.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Maintenant, si je reviens dans la vraie vie, je constate qu'il y a deux fois plus d'entiers pairs. Cela signifie donc que dans la suite de Syracuse, il y a autant d'entiers de la forme 2n.p que d'entiers impairs, et cela n'est pas possible, car cela contredit tout ce que j'ai appris, étudié et peut-être compris. En gros, ce tapis accélère ou ralentit, mais il ne peut pas avoir une vitesse constante.et cela n'est pas possible "quelque soit la valeur de n"Merci.
-
Cela se précise, cela se précise. Donc, ce que je dis depuis le début, c'est que a partir de: $U_{n+1} = \begin{cases} \frac{n}{2} & \text{si } n \text{ est pair} \\3n + 1 & \text{si } n \text{ est impair}\end{cases} $
- la vitesse du tapis roulant est égale à la quantité de nombres pairs et donc de divisions.
- La vitesse du piéton à contre-sens est une constante.
- Et """ je suppose""" que la vitesse du tapis roulant varie en fonction de l'endroit où le piéton entre sur le tapis.
Donc, si le tapis ralentit près de l'infini, la vitesse du piéton sera plus importante que la vitesse du tapis, et donc la suite de Syracuse diverge. Si le tapis accélère ou a une vitesse constante, cette approche ne servira à rien de mon point de vu.Dans le fichier (voir le lien), je mesure le ratio pair/impair sur les 10, 50, 100 et 1000 premiers éléments de la suite $U_n$ avec un $U_{n0}$ qui s'écrit avec 1242539 chiffrés. Ensuite, je fais $U_{n0}=U_{n0}+1$ et je recommence.Je vais modifier le code pour affiner la mesure, car ce n'est pas vraiment flagrant. Si vous avez une idée, n'hésitez pas à la partager. -
Tu refuses d'écouter les réponses, donc tu produis du vide.
Tu pars d'un grand nombre et tu regardes les 1000 premières étapes. Ok. Sur ton exemple, tu trouves un ratio 335/665, très proche du ratio 'idéal' 333/667.
Ok.
Ensuite tu ajoutes 1. Bof, bof, bof.
Il y a dans cette conjecture de Syracuse un phénomène de cluster : des nombres très proches ont très souvent des chemins qui sont les mêmes : les 5 ou 6 premières étapes sont différentes ( I P P P I P I P I P P au lieu de P I P P I P I P P P I par exemple) et hop, le nombre obtenu est le même, et toute la suite du chemin est la même.
Donc prendre plusieurs nombres très proches les uns des autres, ça revient à prendre seulement un nombre, et le traiter plusieurs fois. Sur un groupe de 30 entiers consécutifs, tu auras en fait 3 ou 4 valeurs différentes maximum après le 10ème étape, et la suite du chemin, c'est la même à chaque fois.
Tous tes nombres qui donnent tous exactement le même résultat 335/665, c'est parce que c'est le même chemin que tu parcours à chaque fois
Je te disais de prendre 1000 nombres au hasard sur un intervalle de longueur 10 Milliards par exemple. Ainsi, tu évites tomber plein de fois sur le même cluster.
Et inutile de prendre des nombres aussi grands : des nombres avec 20 chiffres vont déjà te donner plein d'informations.
Et si tu veux analyser les résultats, il faut l'étape supplémentaire.
Sur 1000 nombres traités, combien donnent 335/665, combien donne 340/660, combien donne 345/655 etc etc
Ainsi tu auras une belle gaussienne qui te donnera une idée de la distribution, et des valeurs extrêmes.
Avec un peu de chance, j'espère que tu vas tomber sur quelques nombres qui ont 360 ou 370 étapes impaires, donc beaucoup plus que la moyenne.
Et comme ça, tu verras qu'il y a une certaine dispersion autour de la valeur moyenne de 333.
Tu peux tester ce nombre si tu veux : 35 184 373 084 159
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Dans le fichier, bien que cela ne soit pas flagrant, je constate en moyenne une augmentation de la quantité de nombres pairs entre l'échantillon de 100 et celui de 1000. Donc, plus "n" est petit, car la suite converge, plus j'ai d'entiers pair . j’essaye d’affiner la mesure.En avant premier ,avec le même entier et les 50, 100 et 1000 premiers éléments. Le tableau ci-dessous confirme ma théorie.qtPair /qtImpair=30/20=1.5000000000 nombre de chiffre pour n 310635
{3=3, 2=5, 1=11, 0=1}
qtPair /qtImpair=64/36=1.7777777778 nombre de chiffre pour n 310635
{5=2, 4=1, 3=5, 2=8, 1=19, 0=1}
qtPair /qtImpair=664/336=1.9761904762 nombre de chiffre pour n 310635
{9=1, 8=2, 7=2, 6=5, 5=10, 4=24, 3=36, 2=84, 1=171, 0=1}qtPair /qtImpair=30/20=1.5000000000 nombre de chiffre pour n 310635
{3=3, 2=5, 1=11, 0=1}pour la lecture cela donne Sur les 50 (20+30) premier élément j'ai:3 entiers de la forme 2^3
2 entiers de la forme 2^5
et le premier élément $U_{n0}$ et impaire
qtPair /qtImpair=64/36=1.7777777778 nombre de chiffre pour n 310635{5=2, 4=1, 3=5, 2=8, 1=19, 0=1}5 entiers de la forme 2^24 entiers de la forme 2^13 entiers de la forme 2^51 entiers de la forme 2^19
Par contre cela rame donc ... .Et voici le code optimisé pour minimiser les tests. https://www.cjoint.com/c/MFujTBFUK8J
-
Comme tu refuses d'écouter, je t'abandonne.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Je l'ai déjà fait ce test et j'ai doublé la quantité de chiffres pour écrire "n".qtPair /qtImpair=278/117=2.3760683761 qt Element dans U_n =395Le calcul se fait sur tous les éléments de U_n. Il est évident que cette mesure n'apporte pas grand-chose.
qtPair /qtImpair=784/378=2.0740740741 qt Element dans U_n =1162
qtPair /qtImpair=2002/1030=1.9436893204 qt Element dans U_n =3032
qtPair /qtImpair=3579/1792=1.9972098215 qt Element dans U_n =5371
qtPair /qtImpair=6695/3292=2.0337181045 qt Element dans U_n =9987
qtPair /qtImpair=14683/7400=1.9841891892 qt Element dans U_n =22083
qtPair /qtImpair=28182/14053=2.0054080980 qt Element dans U_n =42235
qtPair /qtImpair=56641/28281=2.0027933949 qt Element dans U_n =84922
qtPair /qtImpair=112892/56316=2.0046168052 qt Element dans U_n =169208
qtPair /qtImpair=230529/115626=1.9937470812 qt Element dans U_n =346155
qtPair /qtImpair=452445/225818=2.0035825311 qt Element dans U_n =678263
qtPair /qtImpair=914344/457601=1.9981250041 qt Element dans U_n =1371945
qtPair /qtImpair=1831286/916841=1.9973866789 qt Element dans U_n =2748127
qtPair /qtImpair=3638298/1818367=2.0008601124 qt Element dans U_n =5456665 -
Tu dis que ça n'apporte pas grand chose, mais tout dépend ce que tu cherches !
Toi tu cherches à prouver qu'il y a une raréfaction, donc les 99% d'expériences qui illustrent qu'il n'y a pas de raréfaction ne t'intéressent pas.
Et tu cherches des trucs qui prouveraient éventuellement qu'il y a raréfaction.
Mais comme cette raréfaction n'existe que dans ton imaginaire, tu tournes en rond.
Si tu cherchais à vérifier ce que je te raconte (pas de raréfaction), tu avancerais.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Dans ce message on a vu que la moitié des nombres pairs de la forme $3\,n+1$ est divisible une seule fois par 2, c'est-à-dire par $2^1$. L'autre moitié est constituée des nombres pairs de la même forme mais divisibles plus d'une fois par 2, à partir donc de $2^2$. En effet,
$\large \sum_{x=2}^{\infty} \frac{1}{2^x}=\frac{1}{2}$
Autrement dit, à chaque étape impaire la suite de Collatz a autant de chances de croître que de décroître, c'est-à-dire une sur deux. Si elle finit toujours par décroître c'est parce que l'amplitude d'une croissance est constante et sensiblement égale à 3/2, alors que l'amplitude d'une décroissance peut être 3/4, 3/8, 3/16, etc., sans aucune limite. Ça n'explique par le 1 final, bien sûr, mais seulement la tendance de ces suites à décroître.
On peut le constater en convertissant une suite en séquence d'exposants de 2. J'en ai parlé dans un autre sujet mais, pour faire court, on calcule $n_{i+1}=(3\,n_i+1)/2^u$ et on ajoute chaque $u$ à une liste :
def exps(n): lst = [] while n > 1: m = 3*n+1 d = m & -m n = m // d lst.append(d.bit_length()-1) return lst print(exps(27))
exps(27) renvoie [1, 2, 1, 1, 1, 1, 2, 2, 1, 2, 1, 1, 2, 1, 1, 1, 2, 3, 1, 1, 2, 1, 2, 1, 1, 1, 1, 1, 3, 1, 1, 1, 4, 2, 2, 4, 3, 1, 1, 5, 4]. En termes de croissance on a 24 x 1, et de décroissance on a 10 x 2, 3 x 3, 3 x 4, et 1 x 5.
On trouve également des suites qui alternent croissance et décroissance aussi longtemps qu'on veut. Celle-ci par exemple :
4194299, 6291449, 4718587, 7077881, 5308411, 7962617, 5971963, 8957945, 6718459, 10077689, 7558267, 11337401, 8503051, 12754577, 9565933, ...
Comment est-ce que j'ai trouvé le premier terme, 4194299 ? La réponse se trouve dans ce message. Il m'a suffi de saisir exp2n0([1, 2, 1, 2, 1, 2, 1, 2, 1, 2, 1, 2, 1, 2]). Tu peux (123rourou) t'amuser avec ce script ; tu constateras que toutes les combinaisons d'exposants de 2 sont possibles, qu'elles correspondent toutes à un premier terme impair ($n_0$), et que ta recherche de particularités dans le nombre de termes pairs est une épouvantable perte de temps.
-
@Wilfrid Merci tu as trouvé un argumentaire mathématique$ \sum_{x=2}^{\infty} \frac{1}{2^x} =\frac{1}{2} $. Oui, sauf que si je ne considère que les premiers éléments $ \sum_{x=2}^{...} \frac{1}{2^x} \ne \frac{1}{2} $ et je le constate dans https://www.cjoint.com/doc/23_06/MFulJ2uoYqJ_sortie-Qt.txt{puissance de 2 =qt ,puissance de 2=qt ,....} et si tu veux connaître la qt pour une puissance donner il suffit de faire $ n/2^x $.
-
Wilfrid a dit :
Si elle finit toujours par décroître c'est parce que l'amplitude d'une croissance est constante et sensiblement égale à 3/2, alors que l'amplitude d'une décroissance peut être 3/4, 3/8, 3/16, etc., sans aucune limite. Ça n'explique par le 1 final, bien sûr, mais seulement la tendance de ces suites à décroître. -
C'est un peu l'idée, pour les petites puissances de 2, on aura à peu près les mêmes quantités, mais on n'aura pas les mêmes quantités pour les grandes puissances de 2 lorsque n augmente, pour un même échantillonnage. Et même si je le constate, ce ne sera pas suffisant à mon avis.
-
donc n a 2 millions de chiffresqtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 2485078
{3=2, 2=8, 1=8, 0=1}
qtPair /qtImpair=63/37=1.7027027028 nombre de chiffre pour n 2485078
{6=1, 3=4, 2=13, 1=18, 0=1}
qtPair /qtImpair=653/347=1.8818443805 nombre de chiffre pour n 2485078
{8=1, 7=4, 6=5, 5=9, 4=21, 3=31, 2=88, 1=187, 0=1}sur 50 qt de$ 2 ^1 -> 8$sur 100 qt de $2 ^1 -> 18 $sur 50 qt de$ 2 ^3 -> 2$sur 1000 qt de $2 ^1 -> 187 $sur 100 qt de $2 ^3 -> 4 $sur 1000 qt de $2 ^3 -> 31 $ < $ 4 \cdot 10=40$j’espèrer pouvoir faire le même raisonnement mais avec $2^7$ ou $2^{8}$Ok ces un peu lège, je suis d'accord . je laisse tourner toute la nuit parque à chaque tour $n=n^2$ ,donc $n$ aura 4 millions de chiffres
-
Bibix a écrit :
on peut avoir n croissances d'affilée ce qui donnerait (3/2)^nJe te renvoie à ce message (et pendant que tu y es, aux deux réponses qui suivent). On peut effectivement construire une suite dont une partie, aussi longue qu'on veut, sera strictement croissante, mais "longue" signifiera toujours "finie". Après sa partie croissante la suite redescendra.
PS : je mettrais ma main au feu que 123rourou et PMF sont une seule et même personne.
-
Il faut bien se rendre à l'évidence, cela fait un peu plus d'une semaine que je fais des calculs et l'approche triviale ne convient pas,
car mes $U_{n0}$ sont trop petits. Donc j'ai affiné la stratégie et décidé de compter les éléments de $U_n$ de la forme $2^n.p$.
Voici les premiers résultats, je vous épargne un rappel sur les algorithmes en temps polynomiaux, mais il ne faut pas s'attendre à beaucoup plus de résultats.
qtPair /qtImpair=31/19=1.6315789474 nombre de chiffre pour n 2485078
{3=2, 2=8, 1=8, 0=1}
qtPair /qtImpair=63/37=1.7027027028 nombre de chiffre pour n 2485078
{6=1, 3=4, 2=13, 1=18, 0=1}
qtPair /qtImpair=653/347=1.8818443805 nombre de chiffre pour n 2485078
{8=1, 7=4, 6=5, 5=9, 4=21, 3=31, 2=88, 1=187, 0=1}
qtPair /qtImpair=36/14=2.5714285715 nombre de chiffre pour n 4970155
{7=1, 6=1, 5=1, 3=3, 2=1, 1=7}
qtPair /qtImpair=70/30=2.3333333334 nombre de chiffre pour n 4970155
{7=1, 6=2, 5=1, 4=1, 3=6, 2=4, 1=15}
qtPair /qtImpair=668/332=2.0120481928 nombre de chiffre pour n 4970155
{11=1, 8=2, 7=1, 6=5, 5=16, 4=16, 3=41, 2=86, 1=164}
qtPair /qtImpair=35/15=2.3333333334 nombre de chiffre pour n 9940309
{3=4, 2=3, 1=6, 11=1, 0=1}
qtPair /qtImpair=62/38=1.6315789474 nombre de chiffre pour n 9940309
{3=4, 2=6, 1=26, 11=1, 0=1}
qtPair /qtImpair=655/345=1.8985507247 nombre de chiffre pour n 9940309
{11=1, 8=1, 7=1, 6=3, 5=4, 4=24, 3=49, 2=86, 1=175, 0=1}
qtPair /qtImpair=35/15=2.3333333334 nombre de chiffre pour n 19880617
{4=1, 3=3, 2=6, 1=5}
qtPair /qtImpair=72/28=2.5714285715 nombre de chiffre pour n 19880617
{9=1, 8=1, 5=2, 4=1, 3=5, 2=8, 1=10}Le dernier calcul en cours, a un $U_{n0}$ avec un peu moins de 20 millions de chiffresle code source pour ceux que cela intéresse ou qu'ils veulent vérifier https://www.cjoint.com/c/MFvlvhLKU5Jet j'ai supprimer mon analyse
-
Tu prends un nombre (un seul) avec 19 Millions de chiffres.
Tu fais des calculs à partir de ce nombre. Et tu tires des conclusions à partir de ce seul et unique exemple.
Problème :
Tirer des conclusions à partir d'un seul nombre n'a pas de sens. Ni à partir de 100 ou 200 ou 2 milliards de nombres.
Par ailleurs quand tu pars de ton nombre avec 19 Millions de chiffres, tu fais 1000 étapes, tu constates que tu as eu 345 étapes impaires et 'seulement' 655 étapes paires (donc un peu différent du ratio habituel 333/667), mais on a de la marge. Quand on part d'un nombre et qu'on fait 345 multiplications par 3, et 655 divisions par 2, on arrive à un nouveau nombre beaucoup plus petit que le nombre de départ.
Donc parler de divergence à partir de tes chiffres, c'est n'importe quoi.
Je ne vais pas un vrai mathématicien, même si j'ai eu différents prix en mathématiques dans ma vie.
Je pense que l'avis d'un vrai mathématicien n'est vraiment pas nécessaire.
Il n'y a rien de correct dans tes analyses.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Et quand bien même ça aurait une pertinence statistique, en quoi la conjecture aurait-elle évolué dans sa démonstration ?
-
À partir du théorème de la raréfaction de Legendre que j'étends aux entiers composés, je peux dire que :$\dfrac{Qt_{pair}}{Qt_{impair}} \underset{U_{n0} \to +\infty}{\longrightarrow} <1$ et donc la suite de Syracuse diverge si $U_{n0} \to +\infty$.Je voulais juste mesurer ou justifier arithmétiquement cette raréfaction.Parce que, entre nous, il y a bien un domaine où l'évidence n'est pas évidente, c'est bien la théorie des nombres.
-
Le théorème de raréfaction de Legendre parle des nombres premiers.
La conjecture de Syracuse parle des nombres impairs.
Il n'y a aucun rapport entre les 2 sujets.
Sur un intervalle [a, b], la proportion des nombres pairs est connue, elle est de 50% et elle est stable. Il n'y a pas de raréfaction des nombres impairs.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
J'ai supprimé une partie de mon précédent message parce que je ne suis pas satisfait de mon analyse. Donc, je joins deux fichiers avec deux $U_{n0}$ relativement petits avec un $n=2n$ et trois échantillonnages : 100, 1000 et 10000. Je constate que la moitié des divisions est effectuée, par les nombres pairs $2p$ et les nombres de la forme $2^2.p$, et que plus n augmente, plus l'écart est important .qtPair /qtImpair=6674/3326=2.0066145521 nombre de chiffre pour n 23896
{18=1, 11=4, 10=1, 9=4, 8=13, 7=21, 6=52, 5=113, 4=224, 3=396, 2=856, 1=1640, 0=1}(1640+2*856)=3352 6674/2=3337qtPair /qtImpair=6691/3309=2.0220610457 nombre de chiffre pour n 47791
{12=1, 11=1, 10=5, 9=6, 8=10, 7=28, 6=63, 5=87, 4=209, 3=469, 2=801, 1=1628, 0=1}(1628+2*801)=3230 6691/2=3345Donc, le cumul des grandes puissances de 2 est aussi important que le cumul des petites puissances de 2.Et je remarque que cela est vrai quel que soit la ligne considérée.(voir lien) Ensuite, eh bien, pour l'instant, je n'ai pas trop d'idées.Mais vous peut être ?
-
Tu prends un nombre particulier (un seul , en considérant que tous les autres nombres vont se comporter comme lui, ce qui est totalement idiot),
tu appliques le processus de Syracuse, sur 10000 étapes, tu comptes le nombres d'étapes paires et d'étapes impaires.
Et pour les étapes paires, tu regardes de plus près, tu regardes comment ces étapes paires sont regroupées.
Par exemple, sur un test, tu as en tout 6674 étapes paires, qui se décomposent en 1640 étapes paires isolées (à partir d'un nombre pair, dès la 1ère division par 2, on tombe sur un nombre impair), 856 étapes paires couplées par 2 ( à partir d'un nombre pair , on arrive à un impair après 2 divisions par 2), etc.
1640, c'est à peu près le double de856, c'est à peu près 4 fois plus que 396, c'est à peu près 8 fois plus que 224, c'est à peu près 16fois plus que 113, etc etc etc
Ok, ce nombre que tu as testé est donc assez proche du comportement moyen (le comportement donné par Wilfrid)
Et alors ?
Si tu veux, tu peux réfléchir, et tu vas réussir à bâtir des nombres qui sont plus proches de ce comportement moyen ( 1640,820,410,205,102,51, 25, 12 , 6) , mais si tu veux , tu peux aussi bâtir des nombres complètement éloignés de ce comportement moyen (1640, 20, 600, 30 ... ...)
Parmi les milliards de milliards de milliards de nombres que tu pourrais analyser (les nombres qui ont 500 chiffres ou 1000 chiffres) tous ces profils existent. TOUS, sans exception.
Si par exemple tu veux un nombre dont les 4000 premières étapes sont (Pair, Impair, Pair, Impair, Pair, Pair, Pair) répété 300 fois, puis (Impair, Pair, Impair, Pair) répété 475 fois, il existe plein de nombres de ce type.
Et quand tu auras trouvé un nombre de ce type, tu lui ajoutes $2^{4000}$ et magie, le nouveau nombre obtenu a le même profil !
Tous les profils existent (à condition bien sûr de respecter la règle : tout impair est suivi de pair)
Edit :
Ce que j'écris ici est vrai (à quelques ajustements minimes près) si on travaille avec des suites compressées. Avec les suites évoquées ici, on a évidemment des patterns similaires, mais c'est un peu plus compliqué à synthétiser. Les suites compressées sont beaucoup plus intéressantes que les suites standards si on veut recenser l'ensemble de tous les comportements possibles sur un intervalle donné.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Un rappelle :Personnellement, je dis que si $\dfrac{Qt_{pair}}{Qt_{impair}} \underset{U_{n0} \to +\infty}{\longrightarrow} <1$ Donc qt le nombre de multiplications est égal au nombre de divisions, la suite diverge, et cela quel que soit l'agencement. C'est parce que 3>2, donc peu importe la valeur de $U_{n0} $, si le rapport est égal à 1,la suite diverge.Donc le mythe du nombre agile est mort, sous cette hypothèse.Ensuite, de votre côté, vous dites : la répartition des entiers pairs est de la forme établie $2^m \cdot p$ est constante quelle que soit la valeur de n. Donc, il n'y a pas de raréfaction des entiers pairs dans la suite de Syracuse.ce à quoi je répond : ok sauf que 3 <4 et si j'ai raison je doit pouvoir le mesure .Ensuite, pour ce qui concerne mes calculs :La moyenne ne révèle rien de flagrant, peut-être une légère tendance, mais je ne suis pas convaincuJ'ai également mesuré la quantité de puissance pour un échantillonnage donné, mais j'arrive pas à l'interpréter.J'ai bien pensé à calculer le taux de contribution de chaque puissance à la quantité de nombres pairs, mais étant donné que n augmente et que l'échantillonnage est identique, cela ne signifiera pas grand-chose.Donc, pour mesurer cette hypothétique raréfaction, je propose de compter le nombre d'entiers pairs de la forme $2^1 \cdot p$ consécutifs. Si cette quantité augmente lorsque n augmente, il y aurait effectivement une raréfaction des entiers pairs dans la suite de Syracuse.Cependant, je pense de plus en plus que cette raréfaction seule pourrait ne pas suffire, mais cela est un autre débat.Par contre, j'aimerais avoir votre avis sur cette mesure, en attendant que je trouve un moyen de coder cela.Merci
-
Tu parles de raréfaction. J'ai demandé ce que c'était ce truc.
Tu as répondu : théorème de Legendre sur la raréfaction des nombres premiers (ok , ce théorème existe mais il n'a aucun rapport avec le sujet) et tu disais que tu étendais ce théorème aux nombres composés.
Qu'entends-tu pas étendre aux nombres composés ? Les nombres composés sont de plus en plus rares ?
Les nombres composés, ce sont ceux qui ne sont pas premiers. Donc comme les nombres premiers sont de plus en plus rares, les nombres composés sont de moins en moins rares.
Par ailleurs, le fait qu'un nombre soit composé ou premier n'intervient pas dans l'histoire. Ça intervient à la marge, parce que tout nombre pair est composé.
Mais, ok, les nombres composés sont de plus en plus denses quand on regarde les grands nombres ; par contre, pour les nombres pairs, pas de doute, il y a 50% des nombres qui sont pairs, dans n'importe quel intervalle.
Donc aucune raréfaction.
Relis mon message précédent.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
nous somme donc d'accord surDonc qt le nombre de multiplications est égal au nombre de divisions, la suite diverge, et cela quel que soit l'agencement. C'est parce que 3>2, donc peu importe la valeur de Un0, si le rapport est égal à 1,la suite diverge.Donc le mythe du nombre agile est mort, sous cette hypothèse.
-
Je vais considérer que nous sommes d'accord, et pour cela, il te suffit de remplacer 'qt total' par 'séquence' ou sur un échantillon donné d'éléments consécutifs. Si (qtPaire / qtImpaire) = 1, alors cela diverge, pour moi cela ne change pas grand chose .donc il nous resteDonc, pour mesurer cette hypothétique raréfaction, je propose de compter le nombre d'entiers pairs de la forme $2^1⋅p$ consécutifs. Si cette quantité augmente lorsque n augmente, il y aurait effectivement une raréfaction des entiers pairs dans la suite de Syracuse.
un avis ?
Bonjour!
Catégories
- 165.6K Toutes les catégories
- 65 Collège/Lycée
- 22.2K Algèbre
- 37.7K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 26 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 29 Mathématiques et finance
- 344 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.4K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 805 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres
In this Discussion
- JLT
- lourrran
- gerard0
- raoul.S
- 123rourou
- Julia Paule
- Dom
- Ingrid1970
- Vassillia
- gebrane
- Karnaj
- Philippe Malot
- JLapin
- Machine_de_Moore
- Bibix
- Romdhane Dhifaoui
- Collag3n
- noobey
- kioups
- Soc
- ROBOUL75
- depasse
- Berkouk2
- Wilfrid
- biely
- john_john
- Math Coss
- biguine_equation
- Rescassol
- GaBuZoMeu
- EtNonLesShills
- Area 51
- llorteLEG
- Heuristique
- Marcgaud