Computer memorizzano i dati come sequenze di 1 e 0 in memoria , in cui ogni cifra è chiamato un po ' . Per ogni bit si aggiunge a una sequenza di dati , si raddoppia il numero di combinazioni possibili è in grado di contenere . Per esempio , un numero di 1 - bit tiene due numeri : 1 e 0 . Un numero 2 bit contiene quattro numeri, come 00 , 01 , 10 e 11 . Un intero a 32 bit è in grado di contenere 4,294,967,296 combinazioni . L' . Net BigInteger vale ancor più combinazioni di numeri , in quanto ha un numero variabile di bit . Istruzioni
1
Aprire Visual Studio 2010 e di iniziare un nuovo progetto facendo clic su "File" e selezionando " Nuovo progetto ".
2
Seleziona " Console Application " sotto il C # voce nella finestra di dialogo Nuovo progetto . Un nuovo file di codice sorgente viene visualizzato nell'area di lavoro principale , con niente di più che una funzione principale vuota .
3
dichiarare un nuovo tipo BigInteger scrivendo la seguente riga all'interno delle parentesi graffe della " funzione principale " nel file di codice sorgente :
BigInteger BigNumber = new BigInteger ( 1000) ;
4
dichiarare un nuovo tipo int , scrivendo la seguente riga al di sotto della riga di codice precedente :
int smallNumber = 5;
5
Assegna il BigInteger al numero intero utilizzando la seguente funzione di conversione :
smallNumber = new Integer ( bigNumber.intValue ( ) ) ;