elaborazione parallela coinvolge una tecnica con cui complessi insiemi di dati sono suddivisi in singoli thread e trattati simultaneamente in uno o più core . AMD e Intel hanno incorporato questa tecnica ( nota come HTT ) per aumentare notevolmente la velocità a cui operano. Fino a poco tempo , questo non sempre assicura un significativo aumento della velocità perché la tecnologia per dividere correttamente le serie di dati e poi riportarli insieme era nella sua infanzia .
Elaborazione seriale
elaborazione seriale comporta una tecnica in cui i dati vengono ordinati in sequenza e poi calcolato da un singolo processore . Questa tecnica funziona molto bene con le liste ordinate di dati che utilizzano le contrazioni simili . Il più grande problema con questo è che solo un bit di dati può essere calcolata in un momento , e programmi complessi non può essere suddivisa in segmenti più piccoli .
Super Computing
Molti ricercatori hanno preso lo sviluppo di elaborazione in parallelo alla fase successiva nella creazione di reti di potenti super computer . Queste reti operano all'unisono attraverso l'uso di software di controllo complicato che agisce per dividere programmazione ed equazioni attraverso la rete complessa e raccogliere i dati aggregati . Alcuni dei più potenti super computer erano in origine militare o sviluppi didattici , fino al 2000 , quando i più grandi gruppi sono stati gestiti da società di videogiochi a sostegno di Massively Multiplayer Online Games ( MMOG ) . A partire dal 2008 , la più grande rete di supercalcolo è gestito dal progetto Folding @ home , che si compone di diversi milioni di PlayStation 3 è in giro per il mondo .
Importanza
Secondo la legge di Moore ( Gordon Moore , Intel Corporation ) , la potenza di elaborazione ( densità di transistor) di computer aumenta ad un tasso fisso , circa il raddoppio su un determinato numero di anni. L'introduzione di processi di produzione avanzati di dimensioni inferiori a 65 nanometri ha permesso notevoli sviluppi la potenza di CPU , principalmente per la capacità di adattarsi più core di elaborazione su un singolo die stampa . Ora che l'architettura sufficiente controllo è stato sviluppato per decodificare correttamente e riassemblare le strutture di programmazione complessi , processori paralleli hanno ampiamente superato i loro predecessori .
Conclusioni
elaborazione di serie è stato il modo migliore dei dati di calcolo imposta fino tecnologie hardware e software , infine, catturati e resi vero parallelo l'elaborazione di una realtà . Il Progetto Genoma Umano ha tre miliardi di serie di dati ed è stata prevista per quasi 100 anni di decodificare completamente . Tuttavia, quasi l'intera sequenza del DNA di Homo sapiens è stato completamente decodificato in soli 13 anni, grazie a massicce reti supercalcolatori e l'uso del calcolo parallelo .
hardware © www.354353.com