Domanda

Stavo guardando questo Lettura di MIT sulla complessità computazionale e in minuto 15:00 Erik DeMaine intraprende una dimostrazione per mostrare ciò che viene affermato nel titolo di questa domanda. Tuttavia non posso seguire il suo ragionamento, in pratica quello che dice è questo:
Possiamo dichiarare un problema decisionale come stringa di $0$ e $1$ che in pratica è la tabella della verità della funzione.
Continua dicendo che un problema decisionale è una serie infinita di bit mentre un programma è una serie di bit finiti e fino a qui nessun problema. Quello che non capisco è la continuazione della prova da questo punto in poi: i problemi di decisione sono in $ mathbb {r} $ perché puoi mettere un punto decimale prima della stringa che rappresenta il problema, ottenendo così la parte decimale di un reale

 for example if you have 0111011010101010101... it could become x.0111011010101010101... 

Un programma è "solo" un numero intero $ mathbb {n} $ Perché è una serie di bit finiti. Il punto che non riesco a capire è come è possibile che un problema decisionale sia paragonabile a un numero reale anziché a un numero intero ... Voglio dire, se utilizziamo l'argomento di "mettere un punto davanti al numero" non potrebbe Lo stesso ragionamento è anche applicato al numero di possibili algoritmi che possono mai essere prodotti?

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a cs.stackexchange
scroll top