Analogico e digitale sono due diversi tipi di computer. Storicamente, i computer analogici erano stati ampiamente utilizzati oggi, ma sono molto meno popolari. Il differenza principale tra computer analogici e digitali è quello i computer analogici funzionano con segnali continui mentre i computer digitali possono funzionare solo con segnali discreti.
Tecnicamente parlando, i computer analogici possono fare riferimento a una pletora di dispositivi. Anche le regole di scorrimento, utilizzate per eseguire calcoli decenni fa, possono essere considerate come un tipo di computer analogico. La caratteristica di un computer analogico è che può funzionare con segnali analogici. Questi sono segnali che possono prendere qualunque valore lungo una scala.
Centrale al elettronico computer analogico era il dispositivo noto come amplificatore operazionale. Gli amplificatori operativi hanno la capacità di eseguire operazioni matematiche producendo una tensione di uscita che dipende dalle tensioni di ingresso fornite ad esso. In teoria, i computer analogici potrebbero essere infinitamente precisi, ma ciò è impossibile da ottenere praticamente. I computer analogici elettronici in genere consistevano in diversi quadranti e un numero di connettori. A seconda dell'utilizzo, i dati possono essere letti utilizzando un oscilloscopio o utilizzando contatori elettronici come voltmetri.
Un computer analogico in uso (1968)
Quando si tratta di modellare fenomeni complessi, i computer analogici hanno un vantaggio. Tuttavia, la costruzione di computer analogici complessi è un processo difficile e costoso. I computer analogici erano ampiamente utilizzati negli anni '50 e '60. Tuttavia, l'avvento dei circuiti integrati significava che molti componenti digitali potevano essere imballati in spazi più piccoli. Stavano diventando più economici, più potenti, meno dispendiosi di energia e stavano dando agli utenti la possibilità di ottenere informazioni in modo più preciso. Oggi, la stragrande maggioranza dei computer in uso sono digitali.
Computer digitali, ad es. praticamente tutto ciò che viene chiamato un "computer" sotto l'uso moderno-non può gestire i dati analogici. Se si esegue un calcolo con un computer digitale, può sembrare che possa funzionare con dati analogici, ma questa è solo un'illusione. In realtà, i computer digitali possono gestire solo segnali discreti. Tutti i segnali forniti al computer devono essere convertiti in una serie di 1 e 0 (che in realtà significa una serie di impulsi elettrici). Poiché un computer può funzionare solo con un numero finito di 1 e 0 alla volta, in teoria un computer digitale non ha la capacità di rappresentare i dati con una precisione infinita. Tuttavia, in realtà, tendono a essere migliori delle loro controparti analogiche nella maggior parte dei casi. Anche se i computer analogici possono essere teoricamente infinitamente preciso ci sono limitazioni imposte ai computer analogici dalle gamme limitate dei loro componenti e dalla difficoltà di leggere i dati con precisione quando è visualizzato su una scala continua.
Computer analogici può gestire segnali analogici.
Computer digitali non può gestire segnali analogici; gestiscono solo segnali digitali.
Computer analogici avere rumore nei loro circuiti, e il rumore è sempre portato con i dati.
Computer digitali avere livelli relativamente bassi di rumore ed è più facile separare il rumore dai dati.
Nel computer analogici, l'archiviazione non è così semplice come nei computer digitali. I condensatori potrebbero essere utilizzati per contenere i valori, ma nel tempo, questo è soggetto a deriva.
Nel computer digitali, i transistor memorizzano i dati in modo discreto, sotto forma di 0 e 1.
Cortesia dell'immagine
"Uomo che lavora al computer analogico, 1968" di Seattle Municipal Archives (Articolo 78757, City Light Photographic Negatives (Serie Record 1204-01), Archivio Municipale di Seattle.) [CC BY 2.0], via flickr