Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? --- Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? Nicolas Cantu
🔔 This profile hasn't been claimed yet. If this is your Nostr profile, you can claim it.
Edit
Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? --- Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? Nicolas Cantu
[TEST AUTOMATION] Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? --- Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? Nicolas Cantu
[TEST AUTOMATION] Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? --- Qu’est-ce qu’une adresse Bitcoin révèle avant et après une dépense ? Nicolas Cantu
Re Nostr
L'erreur du "security budget" de Bitcoin pour les miners de Rappel introductif Bitcoin repose sur un "smart contrat" (script de dépense Bitcoin) entre deux types d’acteurs : les nœuds et les mineurs. Ce contrat, entièrement inscrit dans le code du protocole, permet au système de fonctionner de manière stable sans autorité centrale ni coordination humaine directe. Les nœuds représentent la partie législative du réseau. Ils fixent et appliquent les règles de validité des blocs, contrôlent la difficulté du travail à fournir et déterminent quelle chaîne de blocs doit être considérée comme légitime. Ils jouent aussi le rôle de registre collectif : chaque nœud valide les transactions, conserve une copie intégrale de l’historique et rejette automatiquement tout bloc qui ne respecte pas les règles du consensus. La véritable sécurité du réseau réside ici, dans la redondance des vérifications et dans la cryptographie des portefeuilles, où la longueur des clés privées empêche toute falsification de signature. Les mineurs, eux, forment le pouvoir exécutif de ce contrat. Leur mission consiste à produire des blocs conformes aux règles définies par les nœuds. Leur récompense — la coinbase et les frais de transaction — n’a de valeur que si les nœuds reconnaissent leur travail comme valide. Les mineurs participent donc à une compétition de calcul purement probabiliste : chacun cherche, au hasard, une preuve de travail qui satisfait la difficulté fixée. Sur le plan technique, cette activité de minage est ce qui permet la synchronisation partielle d’un réseau mondial sans horloge centrale. Chaque bloc trouvé agit comme un point de repère temporel partagé : il marque une étape commune pour tous les nœuds, malgré la latence et les différences de propagation entre eux. La preuve de travail sert ici de signal d’ordre, permettant à l’ensemble du système de maintenir un rythme de fonctionnement commun et vérifiable. Ce n’est pas une sécurité cryptographique au sens strict — celle-ci réside dans les clés privées des portefeuilles —, mais un mécanisme d’horodatage distribué. Le calcul minier transforme l’énergie en temps mesuré : il ne protège pas le registre, il lui donne un rythme. Les nœuds, en retour, utilisent ce rythme pour maintenir la cohérence du registre et rejeter les blocs produits hors des règles. Ainsi, le minage n’est pas une armée protégeant la blockchain, mais une fonction de synchronisation probabiliste. Il organise la coexistence d’acteurs honnêtes et opportunistes dans un même jeu où la triche est dissuadée par la logique du protocole : un bloc invalide n’a aucune valeur. Ce contrat auto-régulé fonctionne comme un système d’équilibre dynamique. Les mineurs apportent leur puissance de calcul pour tenter d’inscrire le prochain bloc, mais les nœuds ajustent en permanence la difficulté du travail afin de maintenir un rythme moyen d’environ dix minutes par bloc. Si la puissance mondiale augmente, la difficulté s’élève ; si elle diminue, elle baisse. Le protocole « se moque » donc de la puissance absolue en circulation : il maintient simplement un intervalle de temps constant entre les blocs, assurant une compétition toujours équitable. Les nœuds jouent ici le rôle de gardien du temps : ils mesurent le rythme de production des blocs et recalibrent la difficulté de calcul pour préserver la cadence du système. Cet espace de dix minutes agit comme une horloge commune — un battement collectif mesuré, non produit. Si les blocs arrivent trop vite, les nœuds rendent le calcul plus difficile ; s’ils arrivent trop lentement, ils le facilitent. Les mineurs, quant à eux, fournissent les « oscillations » de calcul (hachages par seconde), tandis que les nœuds en extraient une fréquence stable, utilisable comme variable de régulation. Dans une horloge classique, le temps est mesuré par la fréquence d’un oscillateur : un cristal vibre, un circuit compte les impulsions. Dans Bitcoin, les hachages produits par les mineurs jouent un rôle équivalent — mais la stabilité du temps ne vient pas de la vitesse de ces hachages, elle vient de la manière dont les nœuds les mesurent et en régulent la cadence. Ce n’est donc pas la puissance qui crée la sécurité, mais la mesure collective qui transforme un flux chaotique de calculs en une suite ordonnée de blocs. La sécurité n'est donc pas dans le minage des blocs, ce minage est une mesure utilisée par les nœuds pour leur synchronisation qui assure par les noeuds une protection contre les doubles dépenses. Même si la puissance mondiale de minage varie fortement, le protocole continue de battre à la même cadence. Les nœuds maintiennent la cohérence du registre et la stabilité du temps ; les mineurs, la production régulière des blocs. Cette régulation découple totalement le fonctionnement du réseau des fluctuations économiques du marché minier. Sur le plan économique, la sécurité réelle ne dépend ni du nombre de mineurs ni de la puissance engagée, mais du rapport de forces entre participants honnêtes et adversaires, ainsi que du flux de rémunération que le protocole distribue. Une attaque ne devient rationnelle que si la valeur qu’elle permet de détourner dépasse le coût d’opportunité du minage honnête — un seuil rarement atteignable. Bitcoin (les noeuds) se présente ainsi comme une constitution algorithmique : les règles y sont codées, leur application est collective, et la sanction — le rejet automatique des blocs invalides — est immédiate. Les nœuds incarnent la souveraineté des règles ; les mineurs, la force d’exécution. L’ajustement de difficulté agit comme un arbitre neutre, maintenant la régularité du temps sans qu’aucune autorité ne puisse l’altérer. En résumé, Bitcoin n’est pas une économie fondée sur la puissance, mais sur la mesure du temps et la loyauté au code. Il n’a pas besoin d’une armée de mineurs, seulement d’un consensus sur les règles et d’un mécanisme équitable de compétition. Ce contrat tacite entre calcul et validation fait de la blockchain un système d’horodatage universel, où la confiance est remplacée par la régularité d’un rythme partagé. Pourquoi le concept de « security budget » de Bitcoin pour les mineurs est une erreur de compréhension ? L’expression « security budget » est souvent employée pour désigner la somme dépensée en récompenses (subvention et frais) versée aux mineurs, censée représenter le « prix » de la sécurité de Bitcoin. Ce terme, hérité d’une analogie comptable, a cependant conduit à une erreur d’interprétation fondamentale : il suppose qu’il existerait un budget fixe et nécessaire pour garantir la sécurité du réseau, comme si Bitcoin devait continuellement « acheter » sa propre survie. En réalité, la sécurité n’est pas budgétisée, mais émerge d’un équilibre économique et temporel autorégulé. Une confusion entre flux et stock Le « budget » suppose une ressource finie, dépensée pour obtenir un service mesurable. Or, dans Bitcoin, la récompense versée aux mineurs n’est pas un coût programmé à dépenser pour acheter la sécurité ; c’est un flux endogène, ajusté en continu par le marché des frais et la règle de difficulté. Le réseau ne dépense rien : il distribue un revenu proportionnel à la rareté des blocs et à la demande d’inclusion des transactions. Une méprise sur la causalité L’idée de « budget » laisse entendre que plus les mineurs reçoivent, plus la sécurité augmente, comme si la dépense précédait la sûreté. En réalité, la fiabilité des mesures de l'horloge résulte de la compétition probabiliste et du contrôle de la difficulté, non du montant distribué. – Si le hashrate chute, la difficulté s’ajuste pour maintenir le rythme des blocs ; la sécurité logique de la mesure reste intacte tant que la majorité honnête subsiste. Ainsi, Bitcoin ne « paie » pas sa sécurité : il règle un prix de marché pour le travail réussi, dont la valeur est déterminée par la demande de mesure de temps pour réaliser un effort donné, en en déduit "un temps universel par le volume de travail accompli avec une puissance ajustée". Un contresens sur le rôle du travail Le travail n’achète pas la sécurité, il horodate l’ordre des événements. La preuve de travail (PoW) ne protège pas le système par dépense d’énergie, mais par sa contribution à la fonction de métronome aléatoire et décentralisé : elle synchronise un réseau asynchrone en imposant une limite physique à la vitesse de falsification. L’énergie dépensée est un coût d’opportunité qui rend la réécriture de l’histoire économiquement irrationnelle, pas une assurance contractée auprès des mineurs. Une confusion entre coût marginal et coût total La sécurité de Bitcoin dépend du coût marginal de l’attaque à un instant donné, non du coût total historique du minage. Même si la puissance mondiale baisse, une attaque reste aussi coûteuse que le coût actuel pour dépasser la difficulté : le passé dépensé n’est pas un budget amorti, il n’a aucune valeur défensive accumulée. Autrement dit, la sécurité est instantanée, non cumulative. Une fausse analogie avec un service d’assurance Certains commentateurs assimilent le mining à un service de défense que le protocole devrait rémunérer continuellement pour ne pas perdre sa sécurité. Cette vision est fausse : – Les mineurs ne protègent rien d’extérieur ; ils participent à un jeu dont le seul résultat valide est un bloc accepté. – Le protocole ne peut pas « acheter » leur loyauté ; il ne récompense que la conformité aux règles. La sécurité découle de la vérification automatique, pas de la confiance envers les mineurs. Argument 1 : « Si la récompense diminue, les mineurs partiront, donc la sécurité baissera. » Pondération : – Oui, un hashrate plus faible réduit le coût absolu d’une attaque, mais la difficulté baisse aussi, préservant la cadence des blocs. – Ce qui change, c’est la sécurité économique (le coût d’un 51 %), pas la sécurité logique du consensus. – À long terme, la transition vers un modèle à frais (fee-only era) rend cette dynamique plus sensible ; d’où la nécessité d’un marché actif des frais, mais non d’un « budget » au sens fixe. Argument 2 : « Les mineurs assurent la sécurité, donc ils doivent être payés à hauteur du risque. » Pondération : – Les mineurs ne « protègent » pas ; ils produisent des blocs conformes pour obtenir un revenu aléatoire. – Leur incitation repose sur l’espérance de gain, non sur une rémunération proportionnelle au risque. – Leur rôle est neutre : ils n’ont ni la responsabilité ni la capacité d’assurer la sécurité hors du protocole de validation, leur travail important ou faible est mesuré pour maintenir l'espace de temps entre les blocs. Argument 3 : « La baisse du security budget entraînera une centralisation. » Pondération : – Ce risque existe si le seuil de rentabilité devient trop élevé. – Toutefois, la centralisation découle davantage des économies d’échelle énergétiques et de la concentration géographique que du montant global des récompenses. – Une difficulté moindre permet d’ailleurs à des mineurs plus modestes de concourir à nouveau ; la décentralisation n’est donc pas directement corrélée au budget total. Argument 4 : « Sans un budget minimal, Bitcoin sera vulnérable quand les subventions cesseront. » Pondération : – C’est la critique la plus sérieuse (Budish 2018) mais pour 2140. – Toutefois, la rémunération de la sécurité par les frais d’inclusion est endogène : si la demande de finalité augmente, les frais s’ajustent. – De plus, la sécurité dépend du ratio attaque/coût, non d’un montant absolu : si la valeur attaquable reste inférieure au coût de renversement, l’équilibre demeure stable. Argument 5 : « Le budget de sécurité mesure la santé économique du protocole. » Pondération : – C’est un indicateur comptable utile (pour suivre les flux vers les mineurs), mais il ne mesure pas la sécurité. – La vraie métrique est l’inégalité de non-rentabilité : k × (R_b × P + C_h) > V_a, où : k : nombre de blocs de confirmation nécessaires R_b : récompense par bloc (subvention + frais) P : prix du bitcoin C_h : coût opérationnel de production d’un bloc V_a : valeur économique que l’attaquant pourrait détourner Tant que cette condition est respectée, la sécurité économique est assurée, quel que soit le niveau global du « budget ». La sécurité de Bitcoin n’a pas de prix fixe La sécurité de Bitcoin n’est pas un service à financer, mais une propriété émergente d’un jeu d’incitations et d’ajustements automatiques. Le protocole n’achète pas la sécurité ; le noeuds créent un environnement où la tricherie devient économiquement irrationnelle, afin de synchroniser le réseau sans biais. La sécurité, elle, vient de la cryptographie utilisée sur les wallets. Les flux vers les mineurs ne sont pas un « budget », mais un thermomètre de tension : ils reflètent la demande de finalité et la compétition pour l’espace de bloc. Réduire Bitcoin à une simple question de budget revient à méconnaître sa nature profonde : un système où la sécurité est une conséquence logique du consensus et de la vérification, non un coût d’exploitation. La valeur des bitcoins n'a aucun rapport avec leur coût de production Certains avancent que le bitcoin devrait avoir une valeur minimale, c’est-à-dire au coût énergétique et matériel du minage. Cette idée paraît intuitive : si miner coûte cher, le prix devrait au moins couvrir cette dépense, sinon les mineurs cesseraient leur activité. Pourtant, cette interprétation confond valeur économique et coût de production, deux notions distinctes dans la tradition de l’économie de marché — et, d’un point de vue méthodologique, sans lien de causalité directe. Le coût de production n’est pas la cause de la valeur Dans une économie fondée sur la subjectivité des échanges, la valeur d’un bien n’est pas déterminée par la quantité de travail ou d’énergie qu’il a fallu pour le produire, mais par l’évaluation que les acteurs font de son utilité marginale : ce qu’ils sont prêts à échanger pour l’obtenir. Un bloc miné est rémunéré non parce qu’il « coûte » un certain nombre de kilowattheures, mais parce qu’il permet d’obtenir un bitcoin reconnu par le réseau comme valide et transférable. Si demain la demande d’échange en bitcoin s’effondre, le prix peut chuter en dessous du coût de production sans que le protocole ne soit affecté. Le marché ajustera simplement le hashrate et la difficulté à la baisse. Le coût se forme à partir du prix, non l’inverse Le mécanisme d’ajustement du mining illustre ce renversement causal. Quand le prix du bitcoin monte, de nouveaux mineurs entrent, augmentant la difficulté et donc le coût marginal de production ; quand le prix baisse, des mineurs se retirent, la difficulté diminue et le coût moyen suit. Le coût de production s’adapte au prix d’équilibre de marché, pas l’inverse. Autrement dit : le prix de marché détermine le coût viable, et non le coût qui fixe le prix. Le coût de production n’est donc pas un plancher théorique de valeur, mais la conséquence du prix observé et de la compétition pour l’obtenir. Bitcoin n’a pas de valeur « intrinsèque » mesurable La croyance en une valeur minimale liée à l’énergie consommée repose sur une analogie avec les biens physiques. Mais Bitcoin n’est pas un bien matériel : c’est un registre de propriété décentralisé. Sa valeur découle de la confiance collective dans la validité de ce registre et dans sa rareté algorithmique. Ni l’électricité, ni le silicium, ni le travail des mineurs ne confèrent à l’unité monétaire une valeur intrinsèque ; ils servent seulement à en garantir l’émission et la cohérence temporelle. Si l’électricité devenait gratuite ou si des algorithmes plus efficaces divisaient le coût du hash, la valeur du bitcoin ne serait pas affectée ; seul le coût d’entrée dans la compétition minière changerait. Le marché efface toute corrélation stable Historiquement, la corrélation entre le coût de production estimé et le prix du bitcoin est variable et instable : – lors des bull-runs, le prix s’élève bien au-delà du coût marginal ; – lors des chutes prolongées, il passe souvent en dessous sans que le protocole s’arrête ; – le retarget de difficulté corrige ces déséquilibres en maintenant le rythme des blocs. Cela prouve que le système fonctionne sans référence à une valeur minimale « énergétique ». Le coût du minage est un prix d’équilibre, pas une valeur plancher Ce que certains appellent « coût de production » est en réalité le prix d’équilibre instantané du service de preuve de travail : un point où les revenus attendus compensent le coût marginal d’électricité. Si le prix du bitcoin tombe, les mineurs à coûts élevés se retirent, abaissant le coût moyen et ramenant le réseau vers un nouvel équilibre. La production n’est jamais détruite faute de « budget », elle se réorganise. Conclusion Associer une valeur minimale du bitcoin à son coût de production, c’est inverser le sens de la causalité économique. Le coût ne fonde pas la valeur ; il en découle. La dépense énergétique ne crée pas le prix, elle révèle la compétition pour un bien déjà reconnu comme utile. Le protocole, par son ajustement de difficulté, neutralise d’ailleurs tout lien direct entre puissance, coût et valeur : il garantit seulement la cadence des blocs, pas leur prix. Ainsi, le bitcoin n’a pas de valeur « énergétique » (mais une mesure énergétique), seulement une valeur d’usage et d’échange déterminée par la confiance dans ses propriétés : rareté algorithmique, neutralité, résistance à la censure et prévisibilité monétaire. Le coût de production n’est qu’un effet secondaire du prix de marché, jamais sa cause, ni un plancher garanti de sa valeur. -- Pourquoi 10 minutes (environ entre les blocs), 2 016 blocs (ajustement de la difficulté), 210 000 blocs (halving) ? Il y a des contraintes techniques, il y a des simulations de la latence sur le réseau internet, il y a des simulation économique sur le coût de l'opportunité ramenée au délais, il y a 1000 raisons, certaines initiales et d'autres "découvertes", mais quand on s'en écarte, plus rien ne va, sauf à des compromis refusés sur Bitcoin. Les nœuds refuseraient tout bloc invalide ou non conforme à la chaîne majoritaire. Les transactions resteraient protégées par la cryptographie des clés privées, qui rend impossible toute falsification des signatures. Le risque de double dépense n’apparaîtrait que si une entité parvenait à contrôler durablement la majorité de la puissance de calcul — une situation hautement improbable à l’échelle du réseau global — et, même dans ce cas, chaque nouveau bloc provoque une revérification intégrale de la validité des précédents, ce qui renforce la résilience du protocole. Mais durant une période de réajustement du rythme des blocs, lorsque la puissance de calcul globale varie fortement, des déséquilibres temporaires peuvent apparaître : Blocs trop rapides : la difficulté n’a pas encore eu le temps de s’ajuster. Le risque de double dépense s’accroît légèrement, car plusieurs mineurs peuvent trouver des blocs presque simultanément, avant que le réseau n’ait propagé le précédent. Il peut alors survenir davantage de réorganisations (réorgs) où la chaîne majoritaire se redéfinit à mesure que les blocs se propagent et que les nœuds tranchent. Blocs trop lents : le réseau peut se fragmenter en sous-chaînes divergentes pendant quelques instants, car la lenteur de propagation allonge les délais de confirmation. Les réorgs deviennent alors plus rares mais aussi plus longues, avec des conflits prolongés entre versions concurrentes de la chaîne avant que la majorité ne se reconstitue. Ces épisodes n’altèrent pas la sécurité fondamentale de Bitcoin, mais ils peuvent temporairement affecter la fluidité du consensus et la latence perçue. Le protocole les corrige automatiquement à chaque réajustement de difficulté, ramenant progressivement le réseau vers un rythme d’équilibre. Il est intéressant de noter que de nombreuses autres blockchains ont choisi de contourner ces contraintes physiques en introduisant des notions d’états ou de finalité explicite : une transaction est considérée irréversible après validation par un nombre fixe de blocs ou par un mécanisme de vote interne. Cette approche réduit le besoin de recalcul et améliore la rapidité apparente du consensus, mais elle affaiblit la transparence du contrôle collectif : – si une attaque ou une falsification passe la barrière de la finalité, elle peut rester invisible et irréversible, car les nœuds ne revalident plus intégralement les anciens blocs ; – inversement, si une divergence profonde est détectée, le réseau peut se figer durablement, incapable de trancher entre plusieurs états contradictoires. Bitcoin, en conservant un modèle de validation continue et sans finalité arbitraire, assume le coût computationnel de la rigueur : chaque bloc revérifie les précédents, chaque nœud participe à la mesure du temps commun, et la cohérence du registre ne dépend jamais d’une décision humaine ou d’un vote majoritaire, mais d’une mesure partagée de l’effort accompli dans le temps. En ce sens, le maintien du rythme moyen de dix minutes n’est pas une contrainte technique mais un pilier de la stabilité : il garantit que la mesure du temps, et donc de la vérité commune du registre, reste indépendante de la vitesse du monde physique comme des volontés humaines. On peut voir l’intervalle moyen de dix minutes entre les blocs comme une fenêtre de stabilité comportementale : un compromis entre la vitesse technique du réseau et le rythme humain des décisions opportunistes. Cet espace de temps laisse aux acteurs la possibilité d’évaluer leurs incitations à tricher ou à rester honnêtes, tout en empêchant que ces choix puissent se traduire en actions exploitables avant que le consensus n’ait consolidé les blocs précédents. Autrement dit, Bitcoin ne cherche pas à battre le temps réel, mais à synchroniser un système d’intentions humaines et de calculs mécaniques dans une même cadence mesurée. Passé un certain seuil de rapidité, le jugement et la rationalité économique des acteurs fluctuent plus vite que le protocole ne peut les absorber : les motivations changent avant que les actions ne soient validées. Le délai de dix minutes agit alors comme une latence de sécurité, un amortisseur entre la logique humaine de l’opportunité et la logique algorithmique de la vérification — une mesure de stabilité adaptée à la vitesse de notre ère numérique. Les époques de réajustement : la mesure du temps et le rythme de mise en circulation Bitcoin repose sur deux horloges internes, chacune gouvernant un aspect distinct de son équilibre : – la régulation du temps, assurée par l’ajustement de la difficulté ; – et le rythme de mise en circulation, défini par la décroissance de la récompense, dite halving. Le premier cycle, celui de la difficulté, intervient tous les 2 016 blocs (environ deux semaines). Les nœuds y mesurent le temps réel écoulé pour produire ces blocs et le comparent à la durée théorique de quatorze jours. Si la production a été plus rapide, la difficulté augmente ; si elle a été plus lente, elle diminue. Cette variation, bornée par un facteur quatre, maintient la régularité du battement du réseau. Ce mécanisme n’ajuste pas la puissance de calcul, mais la mesure commune du temps : il transforme un ensemble de hachages indépendants en une cadence collective, perceptible et vérifiable par tous les nœuds. Le second cycle, le halving, survient tous les 210 000 blocs, soit environ tous les quatre ans. Il ne crée pas la rareté — celle-ci résulte de la topologie des UTXO et de la division effective des unités existantes —, mais il oriente la vitesse d’émission des nouveaux bitcoins. Le halving agit donc comme un métronome économique : il module le flux d’introduction des unités dans le système sans altérer la structure interne de la monnaie. En combinant ces deux boucles, Bitcoin relie la stabilité temporelle à la progression de la circulation : – le réajustement de difficulté garantit la constance du rythme, indépendamment du niveau de puissance disponible ; – le halving organise la transition progressive entre une phase d’émission et une phase de maturité où la circulation devient quasi stationnaire. Ce double mécanisme traduit la logique fondamentale du protocole : le temps n’est pas imposé, il est mesuré collectivement ; la valeur ne vient pas de la dépense, mais de la traçabilité et de la cohérence des unités inscrites dans le registre. Ainsi, la difficulté règle le tempo, le halving module le souffle économique, et la véritable rareté — celle qui fait de chaque bitcoin un fragment unique du registre — réside dans la distribution finie et vérifiable des UTXO, non dans la cadence du minage. Dernière précision : la rareté véritable se manifeste dans la granularité des UTXO, c’est-à-dire dans la structure effective du registre, le nombre de dépense possibles sur le réseau, tandis que le halving n’organise pas la rareté mais le rythme de mise en circulation.
Hello!
Pourquoi le calcul quantique est inadapté au minage ? Articles précédent : * Analyse technique et critique du BIP-360 sur Bitcoin : Pay to Quantum Resistant Hash. Rempart quantique ? Faille crypto-politique ? * Bitcoin face à l’ordinateur quantique : évaluation raisonnée d’un risque souvent exagéré L’idée selon laquelle l’ordinateur quantique pourrait un jour « révolutionner » le minage de Bitcoin revient régulièrement dans le discours médiatique. Cette anticipation repose sur une confusion entre deux domaines distincts : la cryptanalyse post-quantique (concernant la sécurité des signatures numériques) et la preuve de travail (concernant la recherche de hachages SHA-256 valides). Les recherches scientifiques récentes montrent pourtant que le calcul quantique n’offre aucun avantage compétitif pour le minage, ni en théorie, ni en pratique. L’analyse suivante expose les raisons précises : limites algorithmiques, contraintes matérielles, coûts énergétiques, neutralisation protocolaire et absence d’impact économique réel. Chiffres clés à connaître au préalable : * 256 bits : taille du hash SHA-256 utilisé pour le minage de Bitcoin. * 1 chance sur 2²⁵⁶ : probabilité brute qu’un hash aléatoire satisfasse la cible réseau. * 10 minutes : temps moyen visé par le protocole Bitcoin pour la découverte d’un bloc. * 2016 blocs : intervalle de recalcul automatique de la difficulté du réseau. * ≈ 1,23 × 10¹⁹ : nombre moyen d’essais théoriques avec Grover pour une difficulté équivalente à 128 bits. * 100 à 400 TH/s : puissance de calcul des ASICs modernes (centaines de trillions de hachages par seconde). * 12 à 35 joules par terahash : rendement énergétique moyen d’un mineur ASIC actuel. * < 1 nanojoule par hash : efficacité énergétique individuelle d’un ASIC SHA-256. * 10⁻¹⁴ seconde : temps moyen d’exécution d’un hash SHA-256 sur ASIC. * 10⁻³ à 1 seconde : durée estimée d’un oracle SHA-256 quantique par itération (même dans un scénario optimiste). * 10¹¹ à 10¹⁵ fois plus lent : écart de performance entre un oracle quantique et un ASIC classique. * 10³ à 10⁶ qubits physiques : nécessaires pour stabiliser un seul qubit logique corrigé d’erreur. * > 10⁹ portes logiques T : profondeur estimée d’un circuit complet SHA-256 quantique tolérant aux fautes. * 10 à 15 millikelvins : température de fonctionnement typique des systèmes quantiques supraconducteurs. * Plusieurs kilowatts : consommation d’un seul réfrigérateur à dilution cryogénique. * Quelques centaines de qubits physiques : capacité maximale des meilleurs processeurs quantiques (Google, IBM, 2025). * Plusieurs millions de qubits corrigés : requis pour casser une clé ECDSA 256 bits avec l’algorithme de Shor. * 2²⁵⁶ ≈ 1,16 × 10⁷⁷ : espace de recherche total du hachage SHA-256, non exploitable par Grover au-delà du symbole. O(2ⁿ) → O(2ⁿ⁄²) : gain théorique maximal de Grover, soit une accélération seulement quadratique. * 10⁶ à 10⁸ fois plus cher : coût énergétique estimé d’un calcul quantique équivalent à un hachage classique. Définition d'un oracle SHA-256 quantique C'est la traduction dans le formalisme du calcul quantique, de la fonction de hachage SHA-256 utilisée dans le minage de Bitcoin. C’est un composant central de l’algorithme de Grover lorsqu’il est appliqué à une fonction de hachage. Dans un calcul classique, SHA-256 est une fonction déterministe : elle prend une entrée (un bloc de données) et produit un hash de 256 bits. Dans un calcul quantique, cette fonction doit être représentée par une opération unitaire réversible, c’est-à-dire un circuit logique qui transforme un état quantique d’entrée |x⟩ et un registre de sortie |y⟩ selon la règle : |x, y⟩ → |x, y ⊕ SHA-256(x)⟩ où ⊕ représente une addition bit à bit (XOR). Cet opérateur est appelé oracle quantique, car il « oriente » la recherche de Grover en marquant les entrées dont le hachage satisfait une condition donnée (par exemple, être inférieur à la cible du réseau). Lors de chaque itération de Grover, l’oracle SHA-256 quantique : * Calcule le hachage SHA-256 de toutes les entrées possibles en superposition. * Compare le résultat à une condition (par exemple, « les 20 premiers bits sont égaux à zéro »). * Inverse la phase des états qui satisfont cette condition. Cette opération permet ensuite, via des interférences constructives, d’amplifier la probabilité de mesurer une entrée valide à la fin du calcul. Construire un oracle SHA-256 quantique réaliste implique : * De convertir les opérations irréversibles du SHA-256 classique (addition modulaire, décalages, XOR, AND, OR) en portes quantiques réversibles. * D’assurer la cohérence quantique sur des millions de portes successives. * De maintenir la tolérance aux fautes (correction d’erreurs) sur des milliers de qubits logiques. En pratique, chaque oracle SHA-256 quantique correspondrait à un circuit extrêmement profond, comprenant des milliards d’opérations élémentaires et nécessitant des millions de qubits physiques. En résumé, un oracle SHA-256 quantique est la version réversible et unitaire de la fonction de hachage utilisée dans Bitcoin, servant à marquer les solutions valides dans un algorithme de Grover. C’est l’élément théorique qui relie la cryptographie classique au calcul quantique, mais aussi la principale barrière pratique rendant le minage quantique irréalisable. Nature du problème de calcul Le minage repose sur la fonction de hachage SHA-256, appliquée deux fois pour chaque bloc : le mineur doit trouver une valeur de nonce telle que le hachage du bloc soit inférieur à une cible fixée par le protocole (la « target »). Ce processus correspond à une recherche exhaustive, où chaque essai est statistiquement indépendant. La probabilité de succès d’un essai est : p = T / 2^256 où T représente la cible du réseau. Le nombre moyen d’essais nécessaires pour trouver un bloc valide est donc : N_classique = 1 / p Dans ce modèle, chaque essai est un calcul de hachage, et les mineurs ASIC actuels en réalisent plusieurs centaines de trillions de hachages par seconde, grâce à une architecture massivement parallèle et optimisée pour un rendement énergétique de quelques dizaines de joules par terahash. L’illusion de l’accélération quantique L’algorithme de Grover (1996) permet d’accélérer la recherche d’un élément particulier dans un espace non structuré. Sa complexité passe de O(2^n) à O(2^(n/2)). Appliqué au minage, cela réduirait le nombre moyen d’essais à : N_Grover ≈ (π/4) × 1 / √p soit un gain théorique de facteur quadratique. Prenons un exemple simple : Si la probabilité de succès est p = 2⁻¹²⁸, alors : – N_classique = 2¹²⁸ – N_Grover ≈ (π/4) × 2⁶⁴ ≈ 1,23 × 10¹⁹ Même dans le meilleur scénario, ce gain reste marginal au regard des contraintes physiques de mise en œuvre. Le minage quantique ne multiplie donc pas la vitesse par 10⁶ ou 10⁹ ; il ne fait que réduire la complexité exponentielle d’un facteur quadratique. Cette amélioration est arithmétiquement insuffisante pour concurrencer des fermes ASIC dotées de millions de circuits parallèles. Implémentation réelle du SHA-256 quantique Le principal obstacle réside dans la profondeur et la stabilité des circuits nécessaires pour exécuter le SHA-256 sous forme quantique. Une étude de référence (Amy et al., SAC 2016) estime que l’implémentation de SHA-256 avec correction d’erreurs quantiques nécessiterait plusieurs milliards de portes logiques T et des millions de qubits physiques. À titre de comparaison, les meilleurs processeurs quantiques expérimentaux (Google, IBM, Rigetti) manipulent aujourd’hui quelques centaines de qubits physiques, avec des taux d’erreur par porte compris entre 10⁻³ et 10⁻² et des temps de cohérence de l’ordre de la microseconde. Même en supposant la disponibilité d’un ordinateur quantique tolérant aux fautes (FTQC), la profondeur de circuit de l’algorithme de Grover sur SHA-256 dépasserait largement la fenêtre de cohérence des qubits actuels. Le coût de correction d’erreurs, qui exige de 10³ à 10⁶ qubits physiques par qubit logique, rend toute application industrielle impraticable. Limites énergétiques et matérielles Contrairement à une idée reçue, un ordinateur quantique ne consomme pas « zéro énergie ». Les dispositifs supraconducteurs ou à ions piégés nécessitent un refroidissement à des températures proches du zéro absolu (10 à 15 mK), grâce à des réfrigérateurs à dilution coûteux et énergivores. La consommation d’un seul système cryogénique dépasse déjà plusieurs kilowatts pour quelques centaines de qubits, sans compter les instruments de contrôle micro-ondes et les alimentations haute fréquence. Or, le minage est un processus massivement parallèle : il faut exécuter des milliards de calculs indépendants par seconde. Le calcul quantique, au contraire, est séquentiel, chaque itération de Grover dépendant de la précédente. Ainsi, même si un ordinateur quantique pouvait effectuer un hachage « plus intelligent », son débit global serait des ordres de grandeur inférieurs à celui des ASIC spécialisés, dont le rendement énergétique par opération est inférieur à 1 nanojoule. Les travaux de 2023 (« Conditions for advantageous quantum Bitcoin mining », Blockchain: Research and Applications) confirment que le coût énergétique et la latence du contrôle quantique neutralisent tout avantage théorique. Autrement dit, le calcul quantique est inadapté à la structure du PoW, fondée sur la répétition ultra-rapide d’une fonction simple, non sur un calcul profond et cohérent. L’ajustement de la difficulté : neutralisation protocolaire Même en admettant qu’un acteur découvre une méthode quantique plus rapide, le mécanisme d’ajustement de la difficulté du protocole Bitcoin rendrait cet avantage transitoire. La difficulté est recalculée toutes les 2016 blocs pour maintenir un intervalle moyen de 10 minutes. Si un mineur « quantique » doublait le taux de hachage global du réseau, la difficulté serait doublée à la période suivante, ramenant le rendement à la normale. Ainsi, le calcul quantique ne pourrait jamais « casser » le minage : il serait simplement intégré dans l’équilibre économique du réseau, puis neutralisé. Le seul risque résiduel serait la centralisation : la possession d’un matériel quantique exceptionnellement performant par un acteur unique pourrait temporairement déséquilibrer le marché du hashpower. Mais ce risque est de nature économique, non cryptographique, et reste improbable compte tenu des coûts d’investissement nécessaires (infrastructures cryogéniques, maintenance, ingénierie avancée). Différencier les risques : signatures contre hachage Il faut distinguer deux menaces distinctes : * Le hachage (SHA-256) : utilisé pour le minage, il résiste aux attaques quantiques, car Grover ne confère qu’un gain quadratique. * Les signatures (ECDSA) : utilisées pour prouver la propriété d’une adresse, elles seraient vulnérables à l’algorithme de Shor (1994), capable de calculer des logarithmes discrets. C’est donc la couche de signature, non celle du minage, qui justifie les travaux de transition post-quantique. Les estimations récentes évaluent à plusieurs millions de qubits corrigés les ressources nécessaires pour casser une clé ECDSA 256 bits. En 2025, aucun système n’approche cette échelle : les processeurs logiques corrigés se comptent en unités, non en milliers. Les véritables progrès de 2024-2025 : des avancées sans impact minier Les annonces récentes de progrès — par exemple, la stabilisation de qubits logiques corrigés d’erreurs sont des étapes importantes, mais elles concernent la fiabilité expérimentale, pas la puissance calculatoire. Un calcul quantique utile pour le minage impliquerait des milliards d’opérations cohérentes et répétées, ce que les qubits actuels ne peuvent soutenir. Même une percée majeure dans la correction d’erreurs ou la modularité n’inverserait pas le constat : l’architecture quantique reste incompatible avec la nature massivement parallèle, faible profondeur et haute fréquence du minage. Les explications suivantes sont un peu plus complexes, voici quelques bases préalables Les notions de bits, de pool mining et de bornes de difficulté peuvent paraître abstraites. Voici une vulgarisation claire de ces trois éléments essentiels pour comprendre le fonctionnement réel du minage. MSB et LSB Dans un nombre binaire de 256 bits (comme le résultat d’un SHA-256), les MSB (Most Significant Bits) sont les bits de gauche : ils représentent les valeurs les plus lourdes dans le nombre. Les LSB (Least Significant Bits) sont ceux de droite, qui changent le plus souvent mais influencent peu la valeur globale. Quand on parle de trouver un hash « avec des zéros en tête », cela signifie que les MSB doivent être nuls : le hachage commence par une longue série de zéros. Les mineurs varient un petit champ de données appelé nonce pour que le hachage final respecte cette contrainte. La difficulté du réseau est précisément le nombre de MSB que le hash doit présenter à zéro. Fonctionnement des pools Le minage est aujourd’hui organisé en pools, des regroupements de mineurs qui travaillent ensemble et se partagent la récompense. Chaque mineur reçoit des tâches simplifiées : il ne cherche pas à valider le bloc complet, mais à produire des shares, c’est-à-dire des hachages dont la difficulté est inférieure à une cible beaucoup plus facile que celle du réseau. Ces shares servent de preuve de participation : plus un mineur en fournit, plus sa part de la récompense du bloc final sera grande. Le serveur de pool ajuste en permanence la difficulté individuelle (vardiff) pour équilibrer les vitesses : un mineur trop rapide reçoit des tâches plus difficiles, ce qui empêche tout avantage injustifié. Bornes inférieure et supérieure du minage Le protocole Bitcoin fixe deux seuils de difficulté qui encadrent tout le processus de minage. La borne supérieure correspond à la cible du réseau : pour qu’un bloc soit validé, le hash de son en-tête doit être inférieur à cette valeur. Plus la cible est basse, plus il faut de zéros en tête du hash, donc plus le bloc est difficile à trouver. À l’inverse, la borne inférieure correspond à la difficulté de travail assignée par les pools à chaque mineur, bien plus facile à atteindre. Elle sert uniquement à mesurer la participation individuelle. Le serveur de pool ajuste ces bornes en permanence. Si un mineur trouve trop de shares trop vite, la pool augmente la difficulté de ses tâches. S’il en trouve trop lentement, elle la réduit. Ce mécanisme — appelé vardiff — élimine de fait les comportements extrêmes : les mineurs trop rapides ne gagnent pas plus, ceux trop lents sont naturellement exclus, car leurs shares deviennent trop rares pour être rentables. Grâce à ce système d’équilibrage, la puissance de calcul de chaque mineur reste proportionnelle à sa contribution réelle, sans possibilité d’avantage durable. Les bornes supérieure et inférieure assurent ainsi une stabilité globale du réseau et une équité locale dans la répartition du travail. Comprendre l’illusion du « Grover partiel » Une idée revient souvent : appliquer l’algorithme de Grover non pas sur les 256 bits entiers du hachage SHA-256, mais uniquement sur une partie des bits les plus significatifs (les « MSB »), puis compléter le reste classiquement. Cette approche, dite de Grover partiel, semble logique : si la recherche porte sur un espace réduit (par exemple 40 bits au lieu de 256), le nombre d’itérations nécessaires diminue d’autant, selon la règle √(2^r). En théorie, cela pourrait permettre d’obtenir plus rapidement des shares de faible difficulté dans une pool de minage. En pratique, cette approche ne change rien à la réalité du calcul. Chaque itération de Grover nécessite d’exécuter l’intégralité du SHA-256 pour évaluer la condition sur les bits de poids fort. Il est impossible de “tronquer” le hachage ou de tester partiellement une fonction de hachage cryptographique sans la calculer entièrement. Autrement dit, on répète moins d’itérations, mais chacune coûte tout autant — et des millions de fois plus cher qu’un hash classique sur ASIC. De plus, Grover ne permet pas de produire plusieurs solutions corrélées. L’état quantique s’effondre dès la première mesure : pour trouver une autre solution, il faut tout recommencer. Contrairement au calcul classique, on ne peut pas réutiliser le résultat pour générer des variantes voisines ou de multiples shares proches. Enfin, même si un mineur quantique obtenait une légère accélération locale sur les shares, cette différence serait aussitôt neutralisée par les mécanismes de régulation automatique des pools, qui ajustent dynamiquement la difficulté de chaque mineur. Le protocole est conçu pour maintenir un équilibre entre tous les participants, quelle que soit leur vitesse. En résumé, le « Grover partiel » n’apporte aucun avantage pratique : le gain quadratique reste purement théorique, annihilé par la lenteur, la décohérence et les contraintes physiques du calcul quantique. Même appliqué à une portion réduite du hachage, le coût énergétique, temporel et structurel d’un tel processus dépasse de plusieurs ordres de grandeur celui des mineurs classiques. Autres objections possibles « L’algorithme de Grover’s algorithm peut traiter plusieurs solutions (multiple-solutions search) » Source : PennyLane Codebook sur “Grover’s Algorithm | Multiple Solutions” explique la généralisation de l’algorithme pour trouver M solutions dans un espace de taille N. Réponse : en théorie, trouver M solutions réduit la complexité à O(√(N/M)). Cependant : * Dans le contexte du minage, “solutions” correspondraient à hachages valides pour la cible de difficulté. Mais l’oracle quantique doit toujours tester la fonction de hachage complète pour chaque entrée, donc le coût reste maximal par itération. * Le fait d’avoir plusieurs solutions M ne change pas la latence ou la profondeur du circuit : on reste limité par la correction d’erreurs et la cohérence. * Pour de grandes valeurs de N (≈ 2²⁵⁶) et de faibles M (target très rare), √(N/M) reste astronomique. Donc, même en adoptant la “multiple-solutions” variante de Grover, les contraintes matérielles et temporelles rendent l’application au minage toujours impraticable. « Si un mineur quantique apparaissait il pourrait provoquer plus de forks / réorganisations Source : l’article académique “On the i of quantum Bitcoin mining” (Sattath, 2018) évoque que la corrélation des temps de mesure pourrait accroître la probabilité de forking. Réponse : cet argument est intéressant mais largement spéculatif et repose sur l’hypothèse que un mineur quantique ultra-rapide fonctionnerait. Toutefois : * Le scénario exigeait un mineur quantique capable d’atteindre un rythme comparable ou supérieur aux meilleurs ASIC, ce qui n’est pas réaliste aujourd’hui. * Même si un tel mineur existait, la majoration de forks ne découle pas forcément d’un avantage minier généralisé mais d’une stratégie opportuniste. Cela ne remet pas en cause l’adaptation du réseau, l’ajustement de la difficulté ou les mesures de sécurité. * Le fait que des forks puissent se produire ne signifie pas que le minage quantique soit viable ou avantageux : le coût demeure prohibitif. En résumé, cette objection peut être formalisée, mais elle ne constitue pas une preuve d’avantage quantique efficace dans le contexte réel. Conséquences économiques et énergétiques Les fermes ASIC modernes fonctionnent à pleine efficacité énergétique, autour de 12 à 35 J/TH. Un ordinateur quantique cryogénique, même parfaitement optimisé, aurait un rendement plusieurs ordres de grandeur inférieur, en raison des coûts de refroidissement, de contrôle et de correction d’erreurs. Le calcul quantique est donc anti-économique pour le minage : * il requiert une architecture centralisée ; * il ne permet pas la duplication à grande échelle ; * il ne réduit pas la consommation énergétique totale ; * il n’améliore pas la sécurité du réseau. Conclusion Le calcul quantique, dans son état actuel et prévisible, est fondamentalement inadapté au minage de Bitcoin : * Sur le plan algorithmique, l’accélération quadratique de Grover reste insuffisante face à la complexité exponentielle du hachage. * Sur le plan matériel, la correction d’erreurs et la décohérence limitent toute tentative de parallélisation à grande échelle. * Sur le plan énergétique, le refroidissement cryogénique et la complexité du contrôle rendent toute opération industrielle inefficiente. * Sur le plan protocolaire, le mécanisme d’ajustement de difficulté neutralise tout avantage transitoire. * Sur le plan économique, la centralisation nécessaire au maintien d’une infrastructure quantique détruirait la résilience du réseau et serait donc exclue des récompenses par les noeuds (qui décident). La menace quantique pour Bitcoin concerne exclusivement les signatures cryptographiques (ECDSA) et non la preuve de travail (SHA-256). En l’état des connaissances et des projections technologiques, aucune perspective crédible ne permet d’imaginer un avantage du calcul quantique pour le minage, ni même une rentabilité énergétique. Le mythe du « quantum miner » relève donc davantage de la spéculation médiatique que de la science appliquée. Bitcoin, conçu pour s’adapter et ajuster sa difficulté, demeure aujourd’hui et pour longtemps résilient face à la révolution quantique.
Chercheur et ingénieur systémique. Parcours de vingt-cinq ans dans les infrastructures critiques, l’architecture des réseaux, les systèmes distribués et les modèles de résilience. Approche transdisciplinaire mêlant technique, économie, thermodynamique, politique et modélisation des systèmes complexes. Bitcoin depuis 2013 avec 2 exits positives, défenseur d’une décentralisation concrète plutôt que narrative. Connaissance > Energie > Numérique > Connaissance : fondateur de 4NK avec une fusion de ces domaines : * travaux en cours sur 4nk.network, la souveraineté des des services Web et une suite complète de protocoles décentralisés, * 4NK Waste & Water avec les infrastructures industrielles autonomes de traitement biologique des déchets organique. Positionnement critique vis-à-vis des abstractions institutionnelles, recherche de solutions opérables à grande échelle 4NK au global construit et commercialise des solutions de résiliences aux politiques par une souveraineté des parties prenantes : en engrais, en eau, en chaleur, numérique (identité inclue), contractuelle et monétaire.