Question

Je regardais cette Lecture du MIT sur la complexité informatique et en minute 15:00 Erik Demaine se lance dans une démonstration pour montrer ce qui est indiqué dans le titre de cette question. Cependant, je ne peux pas suivre son raisonnement, dans la pratique, ce qu'il dit est le suivant:
Nous pouvons énoncer un problème de décision comme une chaîne de $0$ et $1$ qui, dans la pratique, est la table de vérité de la fonction.
Il poursuit en disant qu'un problème de décision est une chaîne infinie de bits tandis qu'un programme est une chaîne finie de bits et jusqu'à ici aucun problème. Ce que je ne comprends pas, c'est la continuation de la preuve à partir de ce moment: les problèmes de décision sont dans $ mathbb {r} $ Parce que vous pouvez mettre un point décimal avant la chaîne représentant le problème, obtenant ainsi la partie décimale d'un réel

 for example if you have 0111011010101010101... it could become x.0111011010101010101... 

Un programme est "juste" un entier dans $ mathbb {n} $ Parce que c'est une chaîne finie de bits. Le point que je ne comprends pas est comment il est possible qu'un problème de décision soit comparable à un nombre réel au lieu d'un entier ... Je veux dire, si nous utilisons l'argument de "mettre un point devant le numéro" ne pourrait pas Le même raisonnement est également appliqué au nombre d'algorithmes possibles qui peuvent être produits?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à cs.stackexchange
scroll top