Computer memorizzano i dati come sequenze di 1 e 0 in memoria , in cui ogni cifra è chiamato un po ' . Per ogni bit si aggiunge a una sequenza di dati , si raddoppia il numero di combinazioni possibili è in grado di contenere . Per esempio , un numero di 1 - bit tiene due numeri : 1 e 0 . Un numero 2 bit contiene quattro numeri, come 00 , 01 , 10 e 11 . Un intero a 32 bit è in grado di contenere 4,294,967,296 combinazioni . L' . Net BigInteger vale ancor più combinazioni di numeri , in quanto ha un numero variabile di bit . Istruzioni 
 1 
 Aprire Visual Studio 2010 e di iniziare un nuovo progetto facendo clic su "File" e selezionando " Nuovo progetto ". 
 2 
 Seleziona " Console Application " sotto il C # voce nella finestra di dialogo Nuovo progetto . Un nuovo file di codice sorgente viene visualizzato nell'area di lavoro principale , con niente di più che una funzione principale vuota . 
 3 
 dichiarare un nuovo tipo BigInteger scrivendo la seguente riga all'interno delle parentesi graffe della " funzione principale " nel file di codice sorgente : 
 
 BigInteger BigNumber = new BigInteger ( 1000) ; 
 4 
 dichiarare un nuovo tipo int , scrivendo la seguente riga al di sotto della riga di codice precedente : 
 
 int smallNumber = 5; 
 5 
 Assegna il BigInteger al numero intero utilizzando la seguente funzione di conversione : 
 
 smallNumber = new Integer ( bigNumber.intValue ( ) ) ;