À propos de Syracuse - Page 22 — Les-mathematiques.net The most powerful custom community solution in the world

À propos de Syracuse

11920222425

Réponses

  • PMF a écrit:
    Cest sûrement la meilleure formule à ce jour.

    Merci pour ce commentaire, mais il y a une chose qui me vient à l'esprit : mes calculs sont basés sur un type de suite impaire "déterministe", comme expliqué plus haut. La question est donc : est-ce que cette formule fonctionne avec des suites plus naturelles ?

    La formule de Collag3n semblant donner les mêmes résultats, il est à mon avis préférable d'utiliser celle-ci. Reste à multiplier les tests avec l'une et l'autre.
  • Il vaut mieux éclater le log comme en page 1 pour garder une meilleur précision
  • OMG je ne sais pas si vous vous rendez compte de l'absurdité de la situation.

    Après 22 "pages" dédiées à cette conjecture, PMF tu es tout contant d'utiliser une formule que tu qualifies de "meilleure formule à ce jour" et Collag3n te fais tranquillement remarquer qu'il avait déjà donné cette formule il y a deux mois !!!! ::o

    Il y a deux mois !
  • il y a deux mois collag3n nous a donné
    x = log(2^tdv/i';6)

    et aujourd'hui :
    $tdv=\lceil \log_2(a\,6^x) \rceil-3$

    qui se rapprocherait en résultat de la formule pmf /wilfrid
    $tdv=round(2.584963742197513\;x + 1.4426950408889634\;ln(a) + 0.3132295719844365)$

    bon ce n'est pas si évident pour tout le monde que ce soit ''kif kif bouricot"
    merci d'avoir un peu d'indulgence

    la comparaison des deux méthodes en précision reste à vérifier de mon côté
  • OK à un 3 près...
  • Page 1 post 2 ?

    $TDV=\lceil x\cdot \log_26+\log_2{i'} \rceil$, et à moins d'avoir rabotté la définition du TDV, il n'y a pas de -3
  • @raoul.S,

    La formule de Collag3n en page 1 étant

    $x=\log_6\dfrac{2^{tdv}}{i'}$

    la valeur du tdv est

    $tdv=\dfrac{\log \left(i'\;6^x\right)}{\log (2)}$

    Or, ce résultat est faux, qu'on arrondisse à l'entier inférieur ou supérieur. Pour savoir qu'on devait lui soustraire 3 pour obtenir la bonne valeur il fallait d'abord calculer des suites comptant un très grand nombre de termes impairs. Et en page 1 ça n'était encore venu à l'idée de personne.
  • la formule de collag3n sous excel est
    TDV = ARRONDI(LOG(a*6^x;2);0)
    $ \large tdv=\lceil \log_2(a\,6^x) \rceil $

    et sous excel avec la formule wilfrid/pmf
    TDV =ARRONDI(2,58496374219751*x + 1,44269504088896*LN(a) + 0,313229571984436;0)

    les deux produisent des résultats identiques
  • $\large tdv=\lceil \log_2(a\,6^x) \rceil$
    $\large tdv=\lceil x\cdot \log_26+\log_2{a} \rceil$
    $\large tdv=\lceil 2.584963742197513\;x + 1.4426950408889634\;ln(a) + 0.3132295719844365\rceil $

    donnent les mêmes résultats en testant dans les 10^15
  • Collag3n a écrit:
    TDV$=\lceil x\cdot \log_26+\log_2{i'} \rceil$, et à moins d'avoir rabotté la définition du TDV, il n'y a pas de -3

    Faux. Le résultat est supérieur de 3 au tdv réel.
  • @collag3n

    sorry pour ta formule de tdv qui avait disparu de mon radar.

    @wilfrid
    sorry aussi
    mais la formule que nous avons élaborée ensemble donnant les mêmes résultats, et en considérant qu'aucun travail n'est inutile, cela permet de comprendre d'où viennent ces rapports entre tdv et x (en tout cas pour moi)
  • Si i' vaut 2, la formule de Collag3n donne TDV=1, ce qui est correct.
    Cette histoire de TDV avec un décalage de 3 ou même plus, c'est parce que pendant longtemps, PMF disait que le TDV, c'était le nombre d'étapes entre le point de départ et le dernier nombre impair.
    Et maintenant, avec la présentation en orbites, TDV est le même que sur tous les sites qui parlent du sujet, c'est le nombre d'étapes jusqu'à 1.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • lourran a écrit:
    PMF disait que le TDV, c'était le nombre d'étapes entre le point de départ et le dernier nombre impair.

    puisque c'est la journée de la page 1, dans le premier recap que j'avais fait, il y a l'illustration suivante qui montre bien que j'ai toujours pris le tdv "standard'' qui va jusqu'à 1 mais que x et n étaient comptés entre i' et i
    c'est pour cela que j'indique toujours que tdv = x + n + log(3i+1;2)
    et sinon les formules de collag3n n'auraient jamais fonctionné106146
  • Alors c'est simple $TDV_{\tiny Wilfrid}=TDV_{\tiny PMF}-3$ (pourquoi faire autrement :-))
  • @lourran

    peux-tu me confirmer que les calculs de $ \large k $ et $\large P_{imp}$ sont corrects pour ces trois valeurs de a : 7, 29 et 219 ?
    et de fait que
    $ \large Pimp * 0,5^{n} = 3i+1 $106148
  • Dans mes souvenirs, k est un nombre un petit peu plus grand que 3. Mais il y a peut-être d'autres notations en cours.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • @Collag3n j'ai une question : comment as-tu fait pour majorer correctement le terme $\log_2\prod_{j=0}^{i-1}\Big(1+\frac{1}{3n_j}\Big)$ ici ?
  • raoul.S, il faut montrer que $0<\log_2\prod\Big(1+\frac{1}{3n_j}\Big)<1$, ce qui permet de plafonner l'expression.

    Une des approches est de considérer un nombre $n$ qui atteint 1 sous sa représentation "classique" et d'observer le comportement de l'accumulation des "+1":

    $\frac{3^i n \beta}{2^k}=\frac{3^i n + \alpha}{2^k}=1$ où $\beta=\prod\Big(1+\frac{1}{3n_j}\Big)$ et $\alpha$ est la représentation de l'accumulation des "+1"

    Dans cette approche, on peut noter que:
    - une puissance de 2 n'est atteinte (par un "+1") qu'à la dernière étape
    - la longeur $L$ binaire (en base 2) de $n$ est $L=\lfloor log_2(n)\rfloor+1=\lceil log_2(n) \rceil$ si $n\neq2^j$ (donc tant qu'on est pas à la dernière étape)
    - ajouter 1 ne provoque pas d'overflow (passage à un exposant de 2) et ne change donc pas la longeur $L$ (excepté à la dernière étape, ce qui lui permet d'atteindre 1)
    - La multiplication par 3 ne permet pas d'atteindre une puissance de 2 (elle ne fait qu'allonger $L$ de $log_23$)

    Tant qu'on est pas à la dernière étape, la longeur binaire de $3n+1$ par exemple est $L=\lceil log_2(3n+1) \rceil=\lceil log_2(3n) \rceil=\lceil log_2(3)+\log_2(n) \rceil$

    Tout ceci permet d'ignorer l'accumulation des "+1" jusqu'à la dernière étape (donc en gros c'est un peu comme si on multipliait par 3 et on divisait par 2 aux étapes impaires/paires): Longeur binaire de $3^in$ par exemple est $L=\lceil i\cdot log_2(3)+\log_2(n) \rceil$

    Et c'est d'ailleurs ce qui se passe: à la dernière étape, il y a une dernière goute "+1" (et l'accumulation dans $\alpha$) qui fait finalement déborder le vase $3^in$ vers une puissance de 2

    En observant que tout au long, le terme principal qui détermine $L$ reste $3^in$, et que c'est l'ajout de $\alpha$ qui fait basculer vers une puissance de 2 ($\alpha-1$ rempli les 0 de la représentation binaire de $3^in$, et le dernier "+1" provoque l'overflow)
    $$3^i n + \alpha=2^k$$
    on peut constater que $\alpha<3^in$ (tout au long et jusqu'à la dernière étape où il rempli finalement tous les 0 de $3^in$) et dès lors que $1<\beta<2$ ou encore que $0<\log_2\beta<1$

    Je cherche une approche plus élégante (nottament en essayant de montrer que si $k>i\cdot log_23$ alors $n0>n_i$), mais pour l'instant tout ça est un peu au frigo
  • collag3n a écrit:
    Et c'est d'ailleurs ce qui se passe: à la dernière étape, il y a une dernière goutte +1 qui fait finalement déborder le vase 3in vers une puissance de 2

    @collag3n
    merci de cet éclairage. Je pense que ce passage crucial en dernière étape à une puissance de 2 peut aussi se montrer de la façon suivante.

    Prenons l'exemple de a = 27
    Je fais une colonne des étapes impaires i' allant de haut en bas de 27 à 5 (i)
    je calcule dans les colonnes suivantes 3i'+1 et 3i'+1/i'
    3*i'+1/i' est toujours un nombre légérement supérieur à 3
    Puis dans une nouvelle colonne que j'appelle $ a*P_{imp}$
    je calcule en partant de la ligne du 5 la valeur de son 3i'+1/i' que je multiplie par 27 = 3.2*27 = 8.64 = 2^6.43
    en remontant de ligne en ligne je calcule 8.64 * 3*i'+1/i' et ainsi de suite jusqu'à la première ligne
    J'affiche les résultats de cette colonne $ a*P_{imp}$ sous la forme d'une puissance de 2
    La première ligne vaut exactement 2^70 : c'est la seule à être une puissance de 2

    Le produit de la colonne 3i'+1/i' est le $\large P_{imp}$
    En calculant $\large a * P_{imp} * 0,5^{n} $ on obtient 16 qui est égal à 3i+1 (i =5 pour a=27)

    En conclusion :
    $\large a * P_{imp}$ est toujours une puissance de 2 à la dernière étape impaire
    $\large a * P_{imp} * 0,5^{n} = 3i+1 = 2^{m} $ est aussi une puissance de 2
    Les puissances de 2 tel que 3i+1=2^m sont les seuls embranchements allant à 1 comme on le voit dans tous les arbres de Collatz


    Je serai content d'avoir ton retour plus formel sur cet exemple (comment tu le relies à ta démonstration). J'ai mis sur mon drive un classeur excel (sans macro) https://drive.google.com/file/d/1V83gzXSgfBisfn0_fmjhv2geGNMdN2lA/view?usp=sharing
    où on peut entrer le $a$ que l'on veut dans la cellule C3 de l'onglet P_imp et en avoir la même décomposition. Il faut éviter de prendre une valeur >10^15 et le nombre de x est plafonné à 150.

    [size=x-small]reminder :
    x : nbr étapes impaires de i' à i
    n : nbr étapes paires de i' à i
    i : dernière étape impaire avant 1
    i' : un entier impair >1 et <> i
    a : n'importe quel entier pair ou impair
    tdv : le temps de vol au sens classique de l'entier de départ à 1 qui est omis dans le décompte (idem Calculis.net)
    cluster : les valeurs x_n_i_tdv qui regroupent un ensemble d'entiers possédant ces valeurs
    orbite : ensemble des entiers pairs ou impairs ayant un même tdv[/size]106172
  • PMF a écrit:
    la formule que nous avons élaborée ensemble

    Nous ne l'avons pas élaborée ensemble, je ne suis intervenu que sur la dernière ligne droite pour corriger l'écart.

    @Collag3n,

    Puisque nos formules respectives sont supposées être exactes toutes les deux, on devrait pouvoir poser

    $2.584963742197513\,x + 1.4426950408889634\,\log(a) + 0.3132295719844365=\dfrac{\log(a\,6^x)}{\log(2)}=\dfrac{\log (a)+x\,\log(6)}{\log (2)}$

    $\log(a)+1.7917071826818145\,x-1.3862943611198904=\log (a)+x\,\log(6)$

    Étant donné que $\log(6)=1.791759469228055$ et compte tenu du fait que la formule originelle de PMF était une approximation, on peut manifestement remplacer $1.7917071826818145\,x$ par $x\,log(6)$.

    $\log(a)+x\,log(6)-1.3862943611198904=\log (a)+x\,\log(6)$

    Le -1.3862943611198904 étant négligeable, nos formules sont équivalentes et on devrait donc toujours trouver le même résultat. Ce n'est pas le cas pour une raison simple : il faut remplacer

    $\left\lceil \dfrac{\log(a\,6^x)}{\log(2)} \right\rceil$

    par $\left[ \dfrac{\log(a\,6^x)}{\log(2)} \right]$, c'est-à-dire round.

    Et là ça marche.
  • @Collag3n OK merci. En tout cas numériquement on dirait que $\log_2\prod\Big(1+\frac{1}{3n_j}\Big)$ est inférieur à $1/3$, bon je ne suis pas allé très loin dans les tests.
  • wilfrid a écrit:
    Et là ça marche.
    merci Wilfrid.
    pour moi cela prouve que l'analyse de données donne des résultats tangibles dans le cas bien particulier des suites de Collatz.
    Mon secret espoir est qu'à un moment donné une petite info bien planquée sous un tas de data ouvre une porte décisive.
    Même si ça passe par une approximation et une formule inélégante, ce ''passe-partout'' ouvrira la bonne porte et on pourra ensuite faire des belles maths.
  • @Wilfrid,

    si j'ai une formule $x+\epsilon=a$, avec $a$ entier et $0<\epsilon<1$, je peux écrire $\lceil x \rceil=a$, ce que j'explique plus haut. Donc je ne sais pas pourquoi je devrais utiliser autre chose (à moins que.....$\epsilon_{Wilfrid}=\epsilon-0.000000134...$?)

    @raoul.S

    Je pense qu'il y a un peu de tout, mais je devrais me repencher sur la question (les grands nombres proches de l'arbre $2^j$ sont plus proches de 0)

    @PMF, il faudrait que j'y jete un oeil
  • Collag3n a écrit:
    Donc je ne sais pas pourquoi je devrais utiliser autre chose

    Je me fous de tes arguments théoriques, je te parle de faits, et la différence se fait sentir avec des suites comptant plusieurs milliers de termes impairs.

    Mais quoi qu'il en soit, rien de ce qui précède n'a fait avancer nos connaissances des suites de Collatz. Le fait de devoir connaître $x$ avant de pouvoir calculer le tdv de $i'$ représente un écueil insurmontable, qui relègue ce calcul au rang de simple curiosité, dont la liste ne fait que s'allonger au fil des ans sans qu'aucune avancée majeure ne soit observée. Donc ce débat est une perte de temps.
  • En parlant de passe-partout, j'en ai justement un nouveau que j'appelle $P_{imp}$
    et deviner quoi, on peut calculer un tdv avec !

    J'ai présenté ce matin comment on arrive à $\large a * P_{imp} * 0,5^{n} = 3i+1 = 2^{m}$
    et indiqué que $\large a * P_{imp}$ est aussi une puissance de 2.
    Donc dans les formules qui vont suivre je propose de réduire ce $P_{imp}$ à son exposant de 2
    Par exemple pour a = 27, $a* P_{imp}= 2^{70}$ et donc je propose de dire que $P_{imp} = 70 $ pour simplifier.
    je rappelle aussi que vous pouvez trouver vous-mêmes tous les $P_{imp}$ que vous voulez avec ce classeur excel sans macro :
    https://drive.google.com/file/d/1V83gzXSgfBisfn0_fmjhv2geGNMdN2lA/view?usp=sharing

    En analysant ma bdd sous cet angle, la première bonne nouvelle est qu'il faut très peu de $P_{imp}$ pour décrire une bdd. J'en trouve exactement 225 pour représenter une bdd de 100.000 i' de 3 à 200.000.

    La deuxième bonne nouvelle est que l'on trouve un nouveau classement structurel grâce à $P_{imp}$
    J'appele ce nouveau groupe ''super-cluster'' parce qu'il regroupe des clusters de manière indépendante aux orbites. Ces clusters ont des x, n, i e tdv différents mais leurs premier de cluster s'alignent parfaitement sur une courbe $\large coef1 * ln(a) + coef2 $
    La preuve en image avec le super-cluster de $P_{imp} = 100 $ qui intègre 1259 i' répartis en 9 clusters ayant 3 i différents (5, 85, 341)

    Et la troisème bonne nouvelle est que l'on peut calculer un tdv de tous les membres d'un super-cluster avec la formule :
    $\large TDV = coef1 * ln(a) + coef2 $

    Dans le cas du super-cluster $P_{imp} = 100 $ on calcule : $\large TDV = -0,920867607 * ln(a) + 163,0070317 $
    ce qui est vrai pour le minorant de ce super-cluster
    $\large TDV = -0,920867607 * ln(2023) + 163,0070317 = 156 $
    comme pour le majorant de ce super-cluster
    $\large TDV = -0,920867607 * ln(195 943) + 163,0070317 = 152 $
    ou pour un i' dont le i = 341 tel que
    $\large TDV = -0,920867607 * ln(194667) + 163,0070317 = 152 $

    Les super-clusters agrégent plusieurs tdv qui se suivent sans rupture un minimum à un maximum : dans le cas du super-cluster $P_{imp} = 100 $ les tdv sont : 152, 153, 154, 155, 156. Attention cela ne veut pas dire que le tdv 152 n'appartient qu'à un seul super-cluster. Par contre si un cluster est dans un super-cluster, il ne sera évidemment pas dans un autre.

    Le pdf joint est la bdd des superclusters avec une ligne par cluster indiquant le premier de cluster, les coef, le tdv ....106216
    106218
  • collag3n a écrit:
    @PMF, il faudrait que j'y jete un oeil
    regarde aussi mon message sur les super-clusters. Je pense que ça va t'intéresser.
  • @Wilfrid, je ne t'ai vu exposer aucun fait
    Tu fais des calculs avec des nombres arbitraires estimés à quelques virgules près par essai/erreur.
    Ne me dis pas que tu tentes en plus d'exploiter 6 puissance plusieurs milliers en Excel ? et de comparer les 2?
    Tu viens systèmatiquement avec des "ces faux", "ce n'est pas bon", "il faut parfois enlevé 1 à x", "il faut enlever 3 à TDV", ....avant de, tout aussi systématiquement, te raviser
    tu veux faire des probabilités?
  • wilfrid a écrit:
    Donc ce débat est une perte de temps.
    je ne sais pas si tu parles de ta discussion avec collag3n ou de ce fil en général :-(

    Je continue ce fil parce que de mon côté je découvre des choses. Quand elles existent déjà, ce que je ne nie pas, elles sont souvent dans des théories mathématiques que peu de gens comprennent (y compris sur ce site). Alors je me dis que les exposer avec des exemples, des applications, des graphiques, cela ne fait pas de mal. A ce titre, je rappelle d'ailleurs que ton travail sur l'automate de Collatz est remarquable et je pense que la recherche mathématique devrait se pencher sur ce type d'expérience innovante.

    Après il y a aussi des choses inédites. Je suis très critiqué par Raoul S, Lourran ou LEG mais je vois bien que de temps en temps ils sortent leur caisse à outils parce que quelque chose à fait tilt. Quelque chose qu'ils n'avaient pas vu ou pas compris de cette manière. Mais pas de confusion : le non-matheux que je suis n'est pas là pour donner des cours de maths aux matheux ! Je vois ce fil comme une expérience entre des gens de compétences différentes, matheux vs non-matheux, pro vs amateurs, théorie vs pratique.

    Après, je l'ai dit de nombreuses fois, collag3n a apporté de super-contributions sur le plan théorique, et les tiennes sont aussi très importantes (ainsi que ton investissement en temps). Donc essayez de ne pas vous facher de trop ;-)
  • Moi je sors ma boite à outils quand tu t'étonnes de tel ou tel résultat, qui te paraît magique et totalement nouveau, alors que c'est juste une conséquence du fait que 2x3=6.

    Dans cette discussion, on dit quoi ? On dit que pour les i', une fois qu'on a calculé le chemin de Syracuse, on trouve certains points communs. On s'intéresse donc uniquement aux i' qui ont un chemin qui aboutit vers 1. On part du principe que la conjecture est exacte, et on s'amuse. Rien d'autre.
    Personne n'imagine apporter des éléments qui feraient avancer la démonstration de la conjecture. Enfin j'espère !
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • LOURRAN a écrit:
    Personne n'imagine apporter des éléments qui feraient avancer la démonstration de la conjecture. Enfin j'espère !

    A part le côté bête et méchant de ton message (mais Hara-Kiri faisait mieux), je pense que tu veux absolument convaincre ce forum que jamais au grand jamais tu pourrais t'intéresser au travail d'un amateur.

    Ce qui me fait marrer aussi, c'est que je suis persuadé que tu communiques dans tes messages corrigeant avec ta morgue coutumière mes innombrables erreurs une bonne partie de tes recherches personnelles sur Collatz. Je dis bien "tes recherches" et pas ''tes connaissances". Parce que je suis peut-être au niveau 2*3=6 en math (pourquoi pas 1+1=2 d'ailleurs), mais je sais tout de même lire un peu entre les lignes. Donc pourquoi ne pas exposer franchement tes théories sur ce fil. Il est là pour ça. Et ne me dis pas que des membres de ce forum ne sont pas engagés dans des recherches sur cette conjecture.

    Après, moi je dis ça, je dis rien ! Si l'idée est de faire du buz sur ce forum allons-y. Moi je reprends volontiers le slogan de Pilote : le journal qui s'amuse à réfléchir.
  • Personnellement j'ai découvert Syracuse sur ce forum (sur un fil antérieur à celui-ci), avant je ne connaissais pas cette conjecture. J'ai fait quelques gribouillages/réflexions mais bon je me suis vite dit que si des matheux n'ont pas trouvé de solution après quelques décennies c'est qu'on ne pouvait pas s'en sortir avec des outils élémentaires.

    Après on pourra toujours dire qu'un argument "simple" a échappé à tous les matheux, ce n'est pas impossible mais très très peu probable...
  • PMF a écrit:
    je pense que tu veux absolument convaincre ce forum que jamais au grand jamais tu pourrais t'intéresser au travail d'un amateur.
    Toujours la même incapacité à comprendre les autres. C'est d'autant plus idiot que Lourran s'est intéressé sur ce même forum au travail de nombreux amateurs et leur a parfois donné des indications très utiles. Mais le point faible du monomaniaque est qu'il ne voit rien en dehors de sa manie.

    Déjà 22 pages de vide !!
  • Je n'ai fait aucune recherche sur cette conjecture.
    Je m'y suis intéressé un peu comme toi, quand j'en ai entendu parler pour la 1ère fois, il y a 15 ou 20 ans.
    J'ai dû faire quelques traitements sur Excel, c'est quasi sûr. Peut-être que j'ai bricolé un programme en dehors d'excel, pour tester des choses, je ne m'en souviens pas.
    Ce que je sais, c'est que j'ai compris très vite 2 choses :
    - un travail sur excel ou par programme ne sera jamais une preuve (sauf bien sûr, la découverte d'un nombre qui 'bouclerait')
    - la démonstration de cette conjecture demande des compétences qui me dépassent complètement.

    Cette conjecture est un terrain de jeu, et ça s'arrête là pour moi. Il y a 2 liens qui ont été donnés dans cette discussion... 2 liens incontournables quand on prétend chercher sur ce sujet, et que je ne connaissais pas.

    Pourquoi je dis 2x3=6 ?
    Je n'ai pas pris cette opération au hasard. Tu as certainement remarqué que le chemin de Syracuse, c'est une succession de divisions par 2, et de multiplications par 3 (3.001, 3.004 ... c'est variable).
    Ou encore, si on parcourt le chemin à l'envers, on a des multiplications par 2, et des divisions par 3.0?.

    Quand on part de 1 et qu'on fait x divisions par 3.0? et n multiplications par 2, peu-importe l'ordre de ces opérations, le résultat est le même. (sauf que les 3.0? ne sont pas tous exactement égaux).
    Cette simple constatation explique le phénomène des clusters. Il a fallu combien de semaines pour que tu comprennes ça ? Je crois que tu ne l'as toujours pas compris.
    Pourquoi ça ? Ta dernière découverte, ta fameuse constante 2.58... , Cette constante, tu l'as calculée par des approximations dans Excel. Et cette constante, en fait, elle se calcule directement, quand on se rappelle que le chemin de Syracuse (à l'envers) , c'est une succession de multiplications par 2, et des divisions par 3.0?

    Dans le site d'Eric Roosendaal, on parle du nombre 983 (ou 993, je ne sais plus) , c'est le nombre pour lequel le décalage gamma est le plus fort (là aussi, je te cite gamma de mémoire, gamma est peut-être un autre indicateur ...) Vois tu le rapport entre ce gamma maximum pour 983 et les dernières formules qui ont circulé ?
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • lourran a écrit:
    Cette simple constatation explique le phénomène des clusters.

    et alors les super-clusters (mon dernier message) on en fait quoi ?

    Je dis simplement qu'au départ on part de données qui n'ont en commun que de revenir à 1
    Sur une bdd de 100.000 i' en définissant les clusters via les x_n_i_tdv on passe à environ à1600 groupes
    On trouve finalement les super-clusters qui s'appuient sur un nouveau critère $P_{imp}$
    Soit dit en passant c'est toi qui m'a mis sur la voie avec ta démonstration sur les ratio 3i'+1/i'
    et on regroupe 100.000 i' en 200 groupes environ
    Et on peut trouver des formules de tdv qui fonctionnent avec ces super-clusters

    Donc je veux bien à la mode Raoul S ou Gerard O que je produis du vide (sympa aussi au passage pour tous ceux qui auront écrit sur ce fil) mais les données que j'ai fournies aujourd'hui je trouve qu'elles renseignent quelque chose.
  • Tu en es à 599 messages écrits sur ce forum. Tous sur ce sujet si je ne m'abuse.
    Tu as dû dire 100 ou 200 fois que 'ton travail apporte quelque chose de nouveau'.
    Et au 599ème message, tu recommences : ces données fournies aujourd'hui renseigneraient quelque chose.
    Pourquoi aurait-on enfin un élément utile, après 598 messages vides ?

    Surtout que la démarche avec des orbites , des clusters, des super-clusters, même entre les mains d'un type génial, ça ne peut mener nulle part.

    Une démonstration, ça répond à certaines règles, certains principes, certaines logiques. A partir du moment où tu n'as pas la moindre idée de ce qu'est une démonstration, tu ne peux pas voir que tu vas nulle part.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • @lourran
    Je répète encore une fois que mon but est de faire une description aussi innovante que possible des suites de Collatz.
    Donc pas une démonstration.
    Ce travail est cohérent et la bdd pourra être utile à quelqu'un.
    Le $ P_{imp} $ qui permet d'identifier les super-clusters vient de la lecture attentive d'un de tes messages sur les ratios des étapes impaires.

    Tu ne regardes jamais les documents que je produis. Il aurait pourtant suffi que tu ouvres une fois https://drive.google.com/file/d/1V83gzXSgfBisfn0_fmjhv2geGNMdN2lA/view?usp=sharing
    pour voir que j'ai strictement reconstruit ta démonstration ici : http://www.les-mathematiques.net/phorum/read.php?43,1993402,2051410#msg-2051410
  • PMF a écrit:
    Je répète encore une fois que mon but est de faire une description aussi innovante que possible des suites de Collatz.
    Toujours aussi imprécis. Quand on ne traite que de suite de Collatz manipulables par Excel, ce ne sont pas "des suites de Collatz" qu'il faut dire, mais "des suites de Collatz portant sur des petits entiers".
    Tu ne traites pas des suites qui commencent par un nombre entre $10^{1000000}$ et $10^{10000000}$, par exemple. Alors que d'autres les ont considérées, voire même ont considéré tous les cas possibles.
  • PMF, continue!
    Personnellement (j' ignore tout sur cete suite), je découvre à travers ton expertise en Excel et base de données, des propriétés intéressantes de cette suite. Au moins, tu nous démontrés par les mathématiques expérimentales pourquoi la conjecture est vraie pour les petits nombres (un grand nombre est un nombre qu'une machine ne peut gerer).
    Profitons tous de sa passion et son expertise.
    Le 😄 Farceur


  • Le super cluster $P_{imp}=100$ , c'est bien le groupe de tous les entiers qui ont 100 étapes PAIRES ?
    Et tu as choisi de le nommer $P_{imp}$ parce que c'est mnémotechnique, $_{imp}$, ça rappelle le mot 'PAIRES' ?

    Tu avais les clusters en regroupant les nombres qui ont le même nombre d'étapes paires n et d'étapes impaires x.
    Chaque groupe est homogène.
    Maintenant, tu associes ces clusters en mettant ensemble tous ceux qui ont le même nombre d'étapes paires.
    Et il y a un alignement... quelle surprise.
    Quand j'ai 100 étapes paires et 50 étapes impaires, j'ai des nombres 3 fois plus petits que quand j'ai 100 étapes paires et 49 étapes impaires.
    Oui, quand on divise un nombre par 3, on obtient un nouveau nombre 3 fois plus petit que le précédent.
    Est-ce que cette découverte va faire avancer la recherche ? je doute.

    Allez, je crois qu'il y a une autre piste pour de grandes découvertes ... tu fais des super-clusters, mais en associant cette fois tous les nombres qui ont le même nombre d'étapes impaires. Ma boule de cristal me dit que tu devrais encore obtenir des alignements parfaits.

    Si tu veux, pour faire le tour du problème, tu peux dessiner une surface plutôt que des courbes.
    Sur l'axe des x, tu mets le nombre d'étapes paires, sur l'axe des y, le nombre d'étapes impaires, et sur l'axe vertical, tu mets le 'premier de cordée'. Tu obtiendras une très belle surface. Et en ajoutant une 2ème surface, avec le dernier de cordée, ce sera encore plus beau.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Je reviens dans le détail des super-clusters

    Tous les entiers ayant le même classificateur $P_{imp}$ appartiennent au même super-cluster

    $ \large P_{imp} =Log_2{\frac{3i+1}{0.5^{n}}}$
    en rappelant que $i$ est la dernière étape impaire avant 1 et $n$ le nombre d'étapes impaires jusqu'à i.

    Dans ma bdd ne contenant que des impairs $i'$ de 3 à 199.999 je trouve 225 super-clusters $P_{imp}$ de 4 à 241.

    Le tdv de tous les i' d'un même super-cluster est égal à :
    $ \large TDV = \alpha*ln(i')+\beta$
    Pour calculer $\alpha$ et $\beta$, on extrait les minorants i' de chaque cluster d'un super-cluster et dans Excel
    $ \alpha = PENTE(données_{tdv};LN(données_{i'})) $
    $ \beta = ORDONNEE.ORIGINE(données_{tdv};LN(données_{i'})) $

    A mes yeux les super-clusters sont, de manière plus significative que les orbites, la superstructure des clusters, car Ils montrent un point crucial de la mécanique des suites de Collatz :
    1) On peut aboutir avec des combinaisons différentes de x, n et i à un même $P_{imp}$
    2) Si on a un même $P_{imp}$ pour plusieurs i', leur tdv se calcule avec les mêmes $\alpha$ et $ \beta$
    3) l'algorithme de Collatz n'est pas déterministe : il ne sait pas où il va. Par contre la structure arithmétique de Collatz est telle qu'au bout d'un certain nombre d'étapes paires et impaires, il y aura $P_{imp}$ tel que
    $\large i' * 2^{P_{imp}} * 0,5^{n} = 3i+1 = 2^{m}$

    Je ne peux pas faire la démonstration de ceci mais je sais le décrire précisément avec les données. Cette description la plus claire possible a pour but d'encourager à ce que l'un d'entre vous y arrive.

    Regardons donc le cas deux i' d'un même super-cluster mais appartenant à deux clusters différents.
    i' = 19____tdv = 20, x = 6, $P_{imp}$ =14, n =10, i= 5, x_n_i_tdv = 6_10_5_20
    i' = 201___tdv = 17, x = 4, $P_{imp}$ =14, n = 4, i = 341, x_n_i_tdv = 4_4_341_18

    On calcule ainsi leur deux tdv malgré leurs différences de x, n et i :
    -0,88757739*ln(19)+22,62515696 =20.0117394959 arrondi à 20
    -0,88757739*ln(201)+22,62515696 =17.9180634313 arrondi à 18

    On voit très bien sur les deux tableaux ce qui se passe en allant de la souche i au i' de départ. Il y a une combinaison de i' où ça switche à une puissance de 2 : c'est 151 à 201 dans un cas et 29 à 19 dans l'autre. C'est une "sacrée mécanique" parce qu'il faut que pile poil à ce switch tout coincide : le produit cumulé des $x$ fois i'*3+1/i' qui multiplié par le i' de départ va donner une puissance de 2 dont l'exposant est le $P_{imp}$ et le nombre de divisions paires $n$ de sorte que $\large i' * 2^{P_{imp}} * 0,5^{n} = 3i+1 = 2^{m}$

    Je le dis carrément : ça tient du prodige ce truc. Si mes tableaux et bdd ne font que mettre en valeur ce phénomène, je trouve que ça en vaut la peine.106258
    106256
    106260
  • Gerbrane a écrit:
    PMF, continue!
    ça c'est vraiment sympa.
    Après tout ce que je me suis pris dans la gueule hier, ça fait du bien.

    j'espère que ce que tu dis représente ce que pense une partie des membres de ce forum, qui ne s'expriment pas mais qui suivent ce fil qui atteint les 27k vues.

    merci !
  • gerard O a écrit:
    des suites de Collatz portant sur des petits entiers

    pas de problème avec ça. Je préfère regarder une petite structure avec un gros microscope et parfaitement profiter de ce que la ''nature'' a inventé.

    Je ne conteste pas une spécificité des grands nombres : mais une bonne description de la structure à petite échelle ne fait pas de mal.
    Je suis persuadé que les super-clusters existent à grande échelle. On doit pouvoir estimer leur prologement depuis les ''petits nombres"

    en fait PMF du laboratoire des petites suites de Collatz, ça me va comme écriteau !
  • lourran a écrit:
    Le super cluster Pimp=100 , c'est bien le groupe de tous les entiers qui ont 100 étapes PAIRES ?
    Et tu as choisi de le nommer Pimp parce que c'est mnémotechnique, imp, ça rappelle le mot 'PAIRES' ?

    absolument pas. mais vraiment pas de vraiment pas : c'est une caricature de mon travail.
    je te conseille de lire mon topo de ce matin sur les super-clusters où j'ai essayé de gagner en précision de description.
    http://www.les-mathematiques.net/phorum/read.php?43,1993402,2053100#msg-2053100
  • correction
    j'avais mal écrit ma syntaxe LaTex dans le message http://www.les-mathematiques.net/phorum/read.php?43,1993402,2053100#msg-2053100
    donc
    $ \large P_{imp} = \frac{Log_2{(3i+1)}}{0.5^{n}}$
    a été corrigé en
    $ \large P_{imp} =Log_2{\frac{3i+1}{0.5^{n}}}$

    dans Excel : LOG((3*i+1)/0,5^n;2)
  • Collag3N a écrit:
    l@Wilfrid, je ne t'ai vu exposer aucun fait

    Supposons qu'on tente de calculer formule de Collag3N - formule de PMF. Pourquoi le résultat ne voudrait-il rien dire ? Parce que la première est arrondie à l'entier supérieur et la seconde à l'entier le plus proche. Cette différence n'a donc de sens que si elle est numérique, sa valeur fluctuant en fonction de celles de $a$ et de $x$. C'est ce que j'appelle un fait.

    Mais un autre facteur entre en ligne de compte : quelle est ta définition de $x$, le nombre de termes impairs que compte une suite ? Faut-il exclure les premier et dernier termes, ou seulement le premier, ou inclure celui-ci comme le fait PMF ? Ça c'est également un fait.
    PMF a écrit:
    je ne sais pas si tu parles de ta discussion avec collag3n ou de ce fil en général

    Je reconnais que ton analyse des données a produit un résultat valable, et que la formule de Collag3n postée en page 1 t'a échappé (ainsi qu'à tout le monde d'ailleurs) parce que tu n'avais aucune idée de ce que tu cherchais et que par conséquent tu ne pouvais pas (personne ne pouvait) faire le lien avec elle. Mais il faut bien admettre que ce résultat s'ajoute à la longue liste de ceux qui n'ont pas fait avancer d'un iota la recherche sur les suites de Collatz. Même mon automate, puisque tu en parles, ne l'a pas faite avancer, mais je ne me considère pas pour autant comme un incompris, pas plus que ça ne m'occasionne de frustration (et je ne dis pas ça par hasard).
    raoul.S a écrit:
    Après on pourra toujours dire qu'un argument "simple" a échappé à tous les matheux, ce n'est pas impossible mais très très peu probable...

    Je m'excuse d'insister sur ce point, mais il me semble que l'automate constitue un "argument simple qui a échappé à tous les matheux", même à celui qui en est à l'origine puisqu'il n'avait pas poussé son raisonnement assez loin.
    lourran a écrit:
    la démonstration de cette conjecture demande des compétences qui me dépassent complètement.

    Tu n'en sais rien. Si les matheux n'ont pas trouvé la solution en près de 90 ans ça devrait te conforter dans l'attitude d'esprit inverse. Il se pourrait que la solution soit d'une étonnante simplicité et surprenne tout le monde.
  • Wilfrid a écrit:
    Si les matheux n'ont pas trouvé la solution en près de 90 ans ça devrait te conforter dans l'attitude d'esprit inverse. Il se pourrait que la solution soit d'une étonnante simplicité et surprenne tout le monde.

    Ah toi tu arrives à cette conclusion... donc en fait tu te dis que les matheux compliquent toujours tout et qu'un truc super simple leur échappe.

    Dans ce cas c'est juste une curiosité : il faudrait quoi pour que tu déduises que la résolution d'un problème requiert des outils non élémentaires ?
  • Wilfrid a écrit:
    Si les matheux n'ont pas trouvé la solution en près de 90 ans ça devrait te conforter dans l'attitude d'esprit inverse. Il se pourrait que la solution soit d'une étonnante simplicité et surprenne tout le monde.
    As-tu un exemple historique qui permettrait de croire ce que tu racontes ? Bien entendu, un exemple sérieux, pas de la fausse vulgarisation (genre l'ellipse plus simple que les cercles et le épicycles, ce qui était faux à l'époque).

    Cordialement.

    NB : Le "il se pourrait" n'a en général aucun sens autre que polémique : Il sert à contrer une thèse quand on n'a pas d'argument.
  • PMF,
    tes super-clusters, le super cluster $P_imp=100$, c'est EXACTEMENT l'ensemble des entiers qui ont 100 étapes paires dans leur chemin de Syracuse.
    Toi, tu le vois différement parce que tu comptes les étapes paires en 2 groupes, tu comptes les étapes paires 'avant le dernier impair' (que tu notes n), et tu comptes les étapes paires 'après le dernier impair' que tu notes $log_2(3i+1)$

    Je te rappelle une propriété de la fonction log : $log_2( \frac{z}{0.5^n} ) = log_2(z) - log_2(0.5^n) = log_2(z) - n log_2(0.5) $
    Et comme $log_2(0.5) = -1$, ça nous donne $log_2( \frac{z}{0.5^n} ) = log_2(z) - log_2(0.5^n) = log_2(z) + n $

    Donc oui, je maintiens, ton super-cluster P_imp=X, c'est l'ensemble des entiers qui ont X étapes paires dans leur chemin de Syracuse.

    En comptant bien TOUTES les étapes paires, pas uniquement celles avant le dernier impair.

    Pars d'un principe très simple : quand tu n'es pas d'accord avec ce que j'écris, l'erreur n'est pas chez moi, mais chez toi.
    Et si après vérification, tu n'es toujours pas d'accord, alors pose des questions, n'affirme pas des choses fausses.

    Et maintenant, lis la suite de mon précédent message, avec un oeil un peu moins négatif.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • @raoul.S et gerard0,

    C'est un cas typique de personnes qui se sentent visées par quelque chose qui ne les concerne en rien.

    Les matheux ont-ils trouvé la solution en 90 ans ? Non.

    La solution est-elle d'une simplicité déconcertante ? C'est une possibilité, mais il se pourrait qu'elle soit extrêmement complexe, voire même qu'elle ne fasse pas appel aux mathématiques telles qu'on les connaît (Paul Erdös).

    La solution proviendra-t-elle d'un mathématicien ? Je n'ai pas de boule de cristal.

    Tels sont les faits.

    Je ne parlais pas de l'impuissance des mathématiques à résoudre ce problème, mais de l'attitude d'esprit de lourran. Quand on part du principe qu'on n'est pas compétent pour mener une tâche quelconque à son terme, on est tout bonnement paralysé.
Cette discussion a été fermée.
Success message!