Enciclopedia / Grandi figure

Brevi biografie di personaggi importanti nel campo dell’Informatica

Aiken, Howard Hathaway

(Hoboken, New Jersey, 8 marzo 1900 – St. Louis, Missouri, 14 marzo 1973), pioniere americano dell’informatica, fisico e matematico, è universalmente riconosciuto per la progettazione e la realizzazione dell’Harvard Mark I, il primo calcolatore automatico digitale su larga scala negli Stati Uniti
Aiken conseguì la laurea in ingegneria elettrica presso l’Università del Wisconsin nel 1923. Successivamente, si dedicò agli studi di fisica ad Harvard, ottenendo il master nel 1937 e il dottorato nel 1939. Fu proprio durante la sua ricerca di dottorato, affrontando complessi calcoli differenziali per la progettazione di tubi a vuoto, che concepì l’idea di una macchina in grado di automatizzare tali processi, ispirandosi in parte ai lavori teorici di Charles Babbage.
Nel 1937, Aiken presentò la sua proposta per un “Automatic Sequence Controlled Calculator” (ASCC), un calcolatore elettromeccanico programmabile. Ottenne il supporto finanziario e tecnico da IBM, in particolare da Thomas J. Watson Sr., e collaborò strettamente con gli ingegneri IBM Clair D. Lake, Francis E. Hamilton e Benjamin M. Durfee. La macchina fu costruita nei laboratori IBM di Endicott, New York, e consegnata all’Università di Harvard nel 1944, dove fu ufficialmente ribattezzata Harvard Mark I.
L’Harvard Mark I era un gigantesco calcolatore elettromeccanico lungo oltre 15 metri e alto 2,4 metri, composto da milioni di componenti, tra cui relè, contatori meccanici e chilometri di cablaggio. Era in grado di eseguire operazioni matematiche complesse in sequenza automatica, leggendo istruzioni e dati da nastri perforati. Durante la Seconda Guerra Mondiale, fu impiegato per calcoli balistici per la Marina degli Stati Uniti e per problemi critici legati al Progetto Manhattan, dimostrando l’enorme potenziale dei calcolatori automatici per la ricerca scientifica e militare.
Dopo il successo del Mark I, Aiken fondò e diresse l’Harvard Computation Laboratory, che divenne un centro nevralgico per la ricerca e lo sviluppo informatico. Sotto la sua guida, il laboratorio sviluppò i successivi calcolatori Mark II, Mark III (il primo computer su larga scala di Harvard completamente elettronico, che utilizzava tamburi magnetici per la memoria) e Mark IV. Aiken fu anche un pioniere nell’istruzione informatica, introducendo corsi e programmi di studio che formarono una nuova generazione di scienziati informatici e contribuirono a definire la disciplina dell’informatica come campo accademico.
Il contributo di Aiken è fondamentale per la storia dell’informatica. Egli non solo realizzò il primo calcolatore automatico su larga scala negli Stati Uniti, ma gettò anche le basi per la disciplina dell’informatica come campo accademico e di ricerca, influenzando profondamente lo sviluppo dei computer moderni. Morì a St. Louis, Missouri, nel 1973.

Allen, Paul Gardner

(Seattle, 21 gennaio 1953 – Seattle, 15 ottobre 2018) è stato un imprenditore, investitore e filantropo statunitense, noto principalmente come co-fondatore di Microsoft Corporation insieme a Bill Gates.
Fin da giovane, Allen mostrò un precoce interesse per i computer, incontrando Gates alla Lakeside School di Seattle. La loro collaborazione portò, nel 1975, alla fondazione di Microsoft, dove Allen giocò un ruolo fondamentale nello sviluppo iniziale del software, in particolare per il sistema operativo MS-DOS, che divenne la base per il successo di IBM PC e, successivamente, di Windows. La sua visione tecnica e la sua capacità di anticipare le tendenze future furono cruciali per la crescita esponenziale dell’azienda.
Nel 1983, a seguito di una diagnosi di linfoma di Hodgkin, Allen lasciò Microsoft, pur mantenendo una quota significativa e un posto nel consiglio di amministrazione. Dopo la guarigione, dedicò la sua vita a una vasta gamma di interessi. Attraverso la sua holding, Vulcan Inc., ha investito in centinaia di aziende tecnologiche, mediatiche e immobiliari. È stato proprietario di due importanti squadre sportive professionistiche: i Seattle Seahawks (NFL) e i Portland Trail Blazers (NBA).
Allen è stato anche un prolifico filantropo. Ha donato miliardi di dollari a cause scientifiche, educative, artistiche e ambientali. Ha fondato l’Allen Institute for Brain Science, l’Allen Institute for Artificial Intelligence e l’Allen Institute for Cell Science, istituzioni all’avanguardia nella ricerca. Ha sostenuto attivamente la conservazione degli oceani e della fauna selvatica, l’esplorazione spaziale (finanziando SpaceShipOne e Stratolaunch) e le arti, fondando il Museum of Pop Culture (MoPOP) a Seattle.
La sua eredità è quella di un visionario che ha plasmato l’era del personal computer e, successivamente, ha utilizzato la sua fortuna per promuovere la scienza, la tecnologia, la cultura e la filantropia su scala globale.

Atanasoff, John VIncent

(Hamilton, New York, 4 ottobre 1903 – Frederick, Maryland, 15 giugno 1995) Fisico e inventore statunitense, universalmente riconosciuto per aver concepito e realizzato, insieme al suo studente Clifford Berry, il primo computer elettronico digitale automatico, l’Atanasoff-Berry Computer (ABC), tra il 1937 e il 1942.
Nato a Hamilton, New York, da padre bulgaro e madre americana, Atanasoff mostrò fin da giovane un’eccezionale propensione per la scienza e la matematica. Conseguì la laurea in ingegneria elettrica presso l’Università della Florida (1925), un master in matematica presso l’Iowa State College (1926) e un dottorato di ricerca in fisica teorica presso l’Università del Wisconsin (1930). Successivamente, tornò all’Iowa State College come professore di matematica e fisica.
Fu durante il suo periodo all’Iowa State che Atanasoff, frustrato dalle limitazioni delle calcolatrici meccaniche per risolvere complessi problemi matematici, in particolare sistemi di equazioni lineari, iniziò a sviluppare un nuovo tipo di macchina. Le sue intuizioni fondamentali includevano l’uso dell’elettronica (valvole termoioniche) per la velocità, l’aritmetica binaria per la precisione e l’affidabilità, e la memoria rigenerativa basata su condensatori. L’ABC, sebbene non fosse un computer programmabile nel senso moderno, incorporava principi rivoluzionari che sarebbero diventati pilastri dell’informatica.
Il suo lavoro sull’ABC fu interrotto dallo scoppio della Seconda Guerra Mondiale, durante la quale Atanasoff contribuì a progetti militari, inclusi sistemi acustici e sismici. Dopo la guerra, non tornò al campo dei computer, dedicandosi invece alla ricerca e allo sviluppo in altre aree e fondando la sua azienda, la Ordnance Engineering Corporation.
La sua importanza storica nel campo dell’informatica fu pienamente riconosciuta solo decenni dopo. Nel 1973, in una storica sentenza del tribunale federale nel caso Honeywell v. Sperry Rand, il giudice Earl R. Larson dichiarò che il brevetto dell’ENIAC (spesso citato come il primo computer elettronico digitale) era invalido, affermando che “Eckert e Mauchly non hanno inventato il primo computer elettronico digitale automatico, ma lo hanno fatto il Dr. John Vincent Atanasoff e Clifford Berry”. Questa sentenza attribuì ad Atanasoff il merito di aver inventato il primo computer elettronico digitale, consolidando il suo posto come pioniere fondamentale dell’era digitale.
Per i suoi contributi pionieristici, Atanasoff ricevette numerosi riconoscimenti, tra cui la National Medal of Technology nel 1990, la più alta onorificenza tecnologica degli Stati Uniti. La sua visione e il suo ingegno hanno gettato le basi per lo sviluppo dei moderni computer.

Babbage, Charles

(Londra, 16 dicembre 1791 – Marleybone 18 ottobre 1871) Matematico, inventore e ingegnere meccanico britannico, Charles Babbage è universalmente riconosciuto come il “padre del computer” per le sue pionieristiche concezioni di macchine calcolatrici automatiche programmabili. La sua visione e i suoi progetti hanno anticipato di oltre un secolo i principi fondamentali dell’informatica moderna.
Babbage studiò matematica all’Università di Cambridge. Fin da giovane, fu frustrato dagli errori nelle tabelle matematiche calcolate manualmente e si dedicò all’idea di automatizzare il processo. Il suo primo progetto significativo fu la Macchina Differenziale (Difference Engine), ideata negli anni ’20 dell’Ottocento. Questa macchina meccanica era progettata per calcolare e stampare automaticamente tabelle matematiche, in particolare funzioni polinomiali, utilizzando il metodo delle differenze finite. Sebbene un prototipo parziale fosse costruito e funzionante, la macchina completa non fu mai realizzata a causa di difficoltà tecniche, costi elevati e problemi di finanziamento.
Successivamente, Babbage concepì un progetto molto più ambizioso e rivoluzionario: la Macchina Analitica (Analytical Engine), a partire dal 1837. Questa macchina è considerata il vero precursore del computer digitale moderno. Era dotata di un’unità di calcolo (il “mulino”), una memoria (il “magazzino”), un sistema di controllo e la capacità di input/output tramite schede perforate, ispirate al telaio di Jacquard. La Macchina Analitica era programmabile, capace di eseguire operazioni complesse, inclusi cicli e salti condizionali, rendendola una macchina universale nel senso moderno.
La sua stretta collaboratrice, Ada Lovelace, figlia di Lord Byron, riconobbe il potenziale della Macchina Analitica ben oltre il mero calcolo numerico. Scrisse quelli che sono considerati i primi algoritmi per la macchina e previde il suo uso per manipolare simboli, musica e immagini, guadagnandosi il titolo di prima programmatrice della storia.
Nonostante nessuna delle sue macchine più complesse sia stata costruita interamente durante la sua vita (principalmente a causa delle limitazioni tecnologiche dell’epoca e della mancanza di fondi), i principi e i concetti che Babbage elaborò sono alla base dell’architettura dei computer contemporanei. La sua straordinaria capacità di anticipare le future esigenze tecnologiche e di ideare soluzioni meccaniche complesse lo rende una figura centrale nella storia della scienza e della tecnologia. Oltre al suo lavoro sui calcolatori, Babbage contribuì anche in campi come l’economia, l’ottica, la crittografia e l’organizzazione industriale.

Behlendorf, Brian

(30 marzo 1973) è una figura pionieristica e altamente influente nel campo del software open source e dello sviluppo collaborativo. È universalmente riconosciuto come uno dei co-fondatori del progetto Apache HTTP Server, che ha dato vita al server web più diffuso al mondo e ha giocato un ruolo fondamentale nella crescita e nell’architettura di Internet.
Nei primi anni ’90, Behlendorf fu tra i principali sviluppatori che si unirono per creare il “gruppo Apache” (poi Apache Software Foundation) con l’obiettivo di migliorare e mantenere il codice del server web NCSA HTTPd. Sotto la sua guida e quella di altri, il progetto Apache HTTP Server divenne rapidamente lo standard de facto per i server web, dimostrando la potenza del modello di sviluppo open source e della collaborazione tra pari.
Dopo il successo di Apache, Behlendorf ha continuato a promuovere l’ecosistema open source. Nel 1999, ha co-fondato CollabNet, una società che forniva strumenti e servizi per lo sviluppo collaborativo di software, contribuendo a rendere più accessibili le pratiche open source alle aziende.
La sua carriera successiva lo ha visto ricoprire ruoli di leadership in diverse organizzazioni di spicco. Ha servito come Chief Technology Officer (CTO) del World Economic Forum, dove ha lavorato per promuovere l’innovazione tecnologica e la collaborazione globale su questioni critiche. Successivamente, è stato Managing Director presso O’Reilly AlphaTech Ventures (OATV), un fondo di venture capital focalizzato su startup tecnologiche emergenti.
Più recentemente, Behlendorf ha assunto il ruolo di Executive Director dell’Open Source Security Foundation (OpenSSF), un’iniziativa della Linux Foundation dedicata a migliorare la sicurezza dell’ecosistema software open source. In questa veste, continua a essere un fervente sostenitore della collaborazione aperta e della necessità di affrontare collettivamente le sfide di sicurezza che riguardano il software su cui si basa gran parte del mondo digitale.
Behlendorf è ampiamente rispettato per la sua visione, il suo impegno costante nei confronti dei principi dell’open source, degli standard aperti e della collaborazione come motori fondamentali per l’innovazione tecnologica e il progresso sociale. La sua influenza si estende dalla fondazione di infrastrutture chiave di Internet alla promozione di pratiche di sviluppo sicure e collaborative a livello globale.

Berners-Lee, Tim

(Londra, 8 giugno 1955), è un informatico britannico universalmente riconosciuto come l’inventore del World Wide Web. La sua visione e il suo lavoro pionieristico hanno trasformato radicalmente il modo in cui l’informazione viene condivisa e acceduta a livello globale, dando vita a una delle più grandi rivoluzioni tecnologiche e sociali della storia.
Figlio di due matematici e pionieri dell’informatica che lavorarono sul Manchester Mark 1, uno dei primi computer elettronici, Berners-Lee ha ereditato un profondo interesse per la tecnologia. Ha studiato fisica al Queen’s College dell’Università di Oxford, laureandosi nel 1976.
La sua innovazione più significativa è nata durante il suo periodo al CERN (Organizzazione Europea per la Ricerca Nucleare) a Ginevra, dove lavorò come consulente software dal 1980 al 1981 e poi nuovamente dal 1984 al 1994. Frustrato dalla difficoltà di condividere informazioni tra i diversi sistemi informatici e i numerosi ricercatori del CERN, nel marzo 1989 presentò una proposta intitolata “Information Management: A Proposal“. Questo documento delineava un sistema di gestione delle informazioni basato su un’architettura distribuita e l’uso di collegamenti ipertestuali.
Tra il 1990 e il 1991, Berners-Lee sviluppò i componenti fondamentali del World Wide Web:
* HTML (HyperText Markup Language): il linguaggio per la creazione di pagine web.
* HTTP (HyperText Transfer Protocol): il protocollo per la comunicazione tra browser e server web.
* URL (Uniform Resource Locator): il sistema di indirizzamento per identificare le risorse sul web.
* Il primo browser web (chiamato “WorldWideWeb“, successivamente “Nexus“).
* Il primo server web (CERN httpd).
Il 20 dicembre 1990, Berners-Lee mise online il primo sito web al mondo (info.cern.ch), segnando la nascita del Web come lo conosciamo. La sua decisione cruciale di rendere il Web e le sue tecnologie sottostanti aperte e royalty-free, senza brevetti o licenze, fu fondamentale per la sua rapida e capillare diffusione, permettendo a chiunque di contribuire e innovare senza barriere economiche.
Nel 1994, Berners-Lee fondò il World Wide Web Consortium (W3C) presso il Massachusetts Institute of Technology (MIT), di cui è tuttora direttore. Il W3C è l’organizzazione internazionale che sviluppa standard aperti per il Web, garantendone l’interoperabilità e l’evoluzione.
Nel corso degli anni, Berners-Lee ha continuato a essere una voce influente per la difesa di un Web aperto, neutrale e decentralizzato. Ha espresso preoccupazioni riguardo alla centralizzazione del potere nelle mani di poche grandi aziende, alla diffusione della disinformazione e alle questioni di privacy. Ha lanciato iniziative come il Solid Project, volto a restituire agli utenti il controllo sui propri dati, e la Web Science Trust, per promuovere la ricerca sul Web come oggetto di studio scientifico.
Per i suoi contributi, ha ricevuto numerosi riconoscimenti, tra cui il titolo di Cavaliere (Knight Commander) dalla Regina Elisabetta II nel 2004 e il prestigioso Premio Turing nel 2016, spesso definito il “Premio Nobel dell’informatica”. La sua eredità è quella di aver creato una piattaforma che ha democratizzato l’accesso all’informazione, facilitato la comunicazione globale e innescato un’era di innovazione senza precedenti.

Boole, George

(Lincoln, 2 novembre 1815 – Ballintemple, 8 dicembre 1864) è stato un eminente matematico, logico e filosofo inglese, universalmente riconosciuto come il fondatore della logica matematica moderna e il creatore dell’algebra booleana. La sua opera ha gettato le basi teoriche per l’informatica e l’era digitale.
Proveniente da umili origini e in gran parte autodidatta, Boole dimostrò una straordinaria attitudine per la matematica e la logica fin dalla giovane età. Iniziò la sua carriera come insegnante di scuola, ma la sua passione e il suo genio lo portarono a pubblicare lavori originali che attirarono l’attenzione della comunità scientifica. Nel 1849 fu nominato primo professore di matematica al Queen’s College di Cork, in Irlanda, posizione che mantenne fino alla sua prematura scomparsa.
Il suo contributo più significativo è racchiuso in due opere fondamentali: *The Mathematical Analysis of Logic* (1847) e, soprattutto, *An Investigation of the Laws of Thought, on which are founded the Mathematical Theories of Logic and Probabilities* (1854). In queste opere, Boole propose un sistema innovativo per trattare la logica non più come una branca della filosofia, ma come una disciplina matematica. Egli sviluppò un’algebra simbolica in cui le proposizioni logiche potevano essere rappresentate da simboli (variabili) e manipulate attraverso operatori matematici.
L’algebra booleana introduce concetti come la congiunzione (AND), la disgiunzione (OR) e la negazione (NOT), e assegna valori di verità (vero/falso, spesso rappresentati come 1/0) alle proposizioni. Questo sistema permise di formalizzare il ragionamento logico, rendendolo suscettibile di calcolo e analisi rigorosa.
Oltre alla logica, Boole diede importanti contributi anche ai campi delle equazioni differenziali e delle equazioni alle differenze finite.
L’eredità di George Boole è immensa e pervasiva. La sua algebra booleana è la base concettuale e operativa di tutta l’elettronica digitale e dell’informatica moderna. I circuiti logici, le porte logiche (AND, OR, NOT), i linguaggi di programmazione, le query nei database e il funzionamento interno dei computer sono tutti dirette applicazioni dei suoi principi. Ha trasformato radicalmente il modo in cui la logica viene studiata e applicata, aprendo la strada all’algebra astratta e alla teoria degli insiemi. Per la sua visione pionieristica, George Boole è giustamente considerato uno dei padri fondatori dell’era dell’informazione e della rivoluzione digitale.

Brin, Sergey

(Mosca, Unione Sovietica, 21 agosto 1973) è un informatico e imprenditore statunitense di origine russa, universalmente riconosciuto come co-fondatore, insieme a Larry Page, di Google, una delle aziende tecnologiche più influenti al mondo.
Nato in una famiglia di matematici ebrei, Brin emigrò negli Stati Uniti con la sua famiglia all’età di sei anni, stabilendosi nel Maryland. Ha conseguito la laurea in matematica e informatica presso l’Università del Maryland e successivamente ha intrapreso gli studi di dottorato in informatica presso la Stanford University. Fu a Stanford, nel 1995, che incontrò Larry Page.
Insieme, Brin e Page svilupparono un innovativo algoritmo di ranking per motori di ricerca, denominato PageRank, che valutava l’importanza delle pagine web in base al numero e alla qualità dei link che puntavano ad esse. Questa ricerca fu la base per il loro progetto di motore di ricerca, inizialmente chiamato “BackRub“, che mirava a organizzare l’immensa quantità di informazioni disponibili sul web e renderle universalmente accessibili e utili.
Nel settembre 1998, Brin e Page fondarono Google Inc. in un garage a Menlo Park, California. La visione di Google, “organizzare le informazioni mondiali e renderle universalmente accessibili e utili“, ha rivoluzionato il modo in cui le persone cercano e interagiscono con le informazioni online. Sotto la loro guida, Google è cresciuta esponenzialmente, espandendosi dal solo motore di ricerca a una vasta gamma di prodotti e servizi, tra cui Android, YouTube, Chrome e Google Maps, trasformandosi in un colosso tecnologico globale.
Nel 2015, Brin e Page hanno annunciato la creazione di Alphabet Inc., una holding che avrebbe raggruppato Google e le sue altre divisioni, con Brin che ha assunto il ruolo di presidente di Alphabet. Nel dicembre 2019, Brin ha lasciato la sua posizione esecutiva in Alphabet, pur rimanendo un membro del consiglio di amministrazione e un azionista di controllo.
Sergey Brin è considerato una figura chiave nell’era digitale, la cui visione e innovazione hanno plasmato profondamente il panorama tecnologico e il modo in cui miliardi di persone accedono e utilizzano le informazioni. La sua influenza si estende ben oltre Google, avendo contribuito a definire l’approccio all’innovazione e all’imprenditorialità nel settore tecnologico.

Cerf, Vinton Gray

(New Haven, Connecticut, 23 giugno 1943) è un informatico statunitense, ampiamente riconosciuto come uno dei “padri fondatori di Internet” per il suo ruolo pionieristico nello sviluppo delle tecnologie che ne hanno reso possibile l’esistenza.
Laureatosi in matematica all’Università di Stanford e conseguendo il dottorato in informatica all’Università della California, Los Angeles (UCLA), Cerf ha svolto un ruolo cruciale nello sviluppo delle prime reti informatiche. Durante il suo periodo all’UCLA, ha lavorato al progetto ARPANET, la rete precursore di Internet, acquisendo una profonda comprensione delle sfide legate all’interconnessione di sistemi eterogenei.
La sua più significativa e duratura innovazione è stata la co-progettazione, insieme a Robert Kahn, della suite di protocolli TCP/IP (Transmission Control Protocol/Internet Protocol) tra il 1973 e il 1978. Questi protocolli hanno fornito le basi tecniche fondamentali per l’interconnessione di reti diverse, creando un linguaggio comune che ha permesso la nascita e l’espansione di Internet come lo conosciamo oggi. Il TCP/IP ha risolto il problema della comunicazione tra sistemi eterogenei, rendendo possibile una rete globale e scalabile.
Dopo il suo lavoro pionieristico, Cerf ha ricoperto diverse posizioni di leadership che hanno ulteriormente plasmato lo sviluppo di Internet. È stato vicepresidente di MCI Communications, dove ha contribuito allo sviluppo del primo servizio di posta elettronica commerciale connesso a Internet. Ha poi presieduto l’Internet Society (ISOC) e ha avuto un ruolo fondamentale nella creazione e nello sviluppo dell’Internet Corporation for Assigned Names and Numbers (ICANN), l’organizzazione responsabile della gestione dei nomi di dominio e degli indirizzi IP, garantendo la stabilità e l’interoperabilità della rete globale.
Dal 2005, Cerf è Chief Internet Evangelist presso Google, dove continua a promuovere lo sviluppo e l’accessibilità di Internet a livello globale, affrontando questioni come la sostenibilità digitale, la governance di Internet e il concetto di “interplanetary internet” per la comunicazione spaziale.
Per i suoi contributi rivoluzionari, Cerf ha ricevuto numerosi e prestigiosi riconoscimenti, tra cui il Premio Turing (condiviso con Robert Kahn) nel 2004, la National Medal of Technology e la Presidential Medal of Freedom. La sua visione e il suo lavoro hanno trasformato radicalmente la comunicazione, il commercio e l’accesso all’informazione a livello mondiale, rendendolo una figura centrale e insostituibile nella storia della tecnologia moderna.

Codd, Edgar Frank “Ted”

(Isle of Portland, UK, 19 agosto 1923 – Williams Island, 18 aprile 2003) è stato un informatico britannico, universalmente riconosciuto come il “padre” del modello relazionale per la gestione dei database. La sua opera pionieristica ha rivoluzionato il modo in cui i dati vengono organizzati, archiviati e interrogati, ponendo le basi per la stragrande maggioranza dei sistemi di gestione di database (DBMS) moderni.
Codd ha studiato matematica e chimica al Brasenose College, Oxford, e ha conseguito un dottorato di ricerca in informatica presso l’Università del Michigan. Nel 1949, è entrato a far parte di IBM, dove ha trascorso gran parte della sua carriera, lavorando inizialmente sul progetto del computer IBM 701.
Fu negli anni ’60, mentre lavorava presso il centro di ricerca IBM di San Jose, California, che Codd sviluppò le sue idee rivoluzionarie. Nel 1970, pubblicò il suo influente articolo “A Relational Model of Data for Large Shared Data Banks“, che delineava i principi fondamentali del modello relazionale. Questo modello proponeva di organizzare i dati in tabelle (o “relazioni”), ciascuna composta da righe (o “tuple”) e colonne (o “attributi”), con relazioni definite tra le tabelle basate su valori comuni. La chiave del suo approccio era la sua solida base matematica, derivata dalla teoria degli insiemi e dalla logica del primo ordine, che garantiva integrità dei dati, coerenza e indipendenza dei dati dall’applicazione.
Il modello relazionale di Codd offriva un’alternativa superiore ai modelli gerarchici e di rete prevalenti all’epoca, che erano complessi e rigidi. La sua proposta permetteva agli utenti di interrogare i database in modo più flessibile e dichiarativo, senza dover specificare i percorsi fisici di archiviazione dei dati. Successivamente, Codd formulò anche le sue “12 regole” (in realtà 13, dalla regola 0 alla 12) come un insieme di criteri per valutare la conformità di un sistema di gestione di database al modello relazionale.
L’impatto del lavoro di Codd fu profondo. Sebbene inizialmente incontrasse resistenza all’interno di IBM, le sue idee furono rapidamente adottate e portarono allo sviluppo di prototipi come System R di IBM e Ingres all’Università della California, Berkeley. Questi progetti, a loro volta, diedero origine a linguaggi di interrogazione come SQL (Structured Query Language), che è diventato lo standard de facto per l’interrogazione e la manipolazione dei database relazionali.
Per il suo contributo fondamentale alla teoria e alla pratica dei database, Edgar F. Codd è stato insignito del prestigioso Premio Turing nel 1981, il più alto riconoscimento nel campo dell’informatica. La sua visione ha plasmato l’industria del software per decenni e continua a essere la spina dorsale di innumerevoli applicazioni e servizi digitali in tutto il mondo.

Dubinsky, Donna

(Cleveland, Ohio, 4 luglio 1955) è una figura di spicco e innovatrice nel settore della tecnologia, ampiamente riconosciuta per il suo ruolo pionieristico nello sviluppo dei computer palmari e degli smartphone. La sua carriera è caratterizzata da una serie di successi imprenditoriali che hanno profondamente influenzato il panorama dell’informatica mobile.
Dopo aver conseguito un MBA presso la Stanford Graduate School of Business, Dubinsky ha iniziato la sua carriera in Apple Computer, dove ha lavorato nel team del Macintosh, acquisendo esperienza cruciale nello sviluppo di prodotti e nella gestione aziendale.
La sua ascesa come imprenditrice è iniziata nel 1992, quando ha co-fondato Palm Computing insieme a Jeff Hawkins e Ed Colligan. In qualità di CEO, Dubinsky ha guidato lo sviluppo e il lancio del PalmPilot nel 1996, un dispositivo che ha rivoluzionato il concetto di computer palmare. Il PalmPilot è diventato rapidamente un successo commerciale, definendo una nuova categoria di prodotti e rendendo l’informatica portatile accessibile a milioni di utenti. Sotto la sua guida, Palm è cresciuta esponenzialmente, diventando un leader indiscusso nel mercato dei PDA (Personal Digital Assistant).
Nel 1998, dopo l’acquisizione di Palm da parte di 3Com, Dubinsky, insieme a Hawkins e Colligan, ha lasciato l’azienda per fondare Handspring. L’obiettivo era esplorare nuove frontiere nella convergenza tra dispositivi palmari e telefoni cellulari. Come CEO di Handspring, Dubinsky ha supervisionato lo sviluppo del Treo, lanciato nel 2002. Il Treo è ampiamente riconosciuto come uno dei primi smartphone di successo, combinando le funzionalità di un PDA con quelle di un telefono cellulare in un unico dispositivo elegante e funzionale, anticipando l’era degli smartphone moderni. Nel 2003, Handspring è stata acquisita da Palm, riunendo le due entità e consolidando la visione di Dubinsky per l’informatica mobile.
Più recentemente, Dubinsky ha co-fondato Numenta nel 2005, un’azienda di ricerca e sviluppo focalizzata sull’intelligenza artificiale e le neuroscienze. In qualità di CEO, sta guidando gli sforzi per sviluppare una nuova teoria dell’intelligenza basata sui principi del neocorteccia, con l’obiettivo di creare sistemi di intelligenza artificiale più efficienti e simili a quelli umani.
Donna Dubinsky è ampiamente riconosciuta per la sua visione strategica, la sua capacità di esecuzione e il suo impatto duraturo sull’industria tecnologica. È stata una figura chiave nella transizione dall’informatica desktop a quella mobile, dimostrando una notevole abilità nel prevedere e capitalizzare le tendenze emergenti. La sua carriera è un esempio di leadership innovativa e di successo imprenditoriale nel cuore della Silicon Valley.

Fielding, Roy

(Laguna Beach, California, 1965). Informatico statunitense, riconosciuto a livello mondiale come una figura chiave nello sviluppo dell’architettura del World Wide Web. La sua fama deriva principalmente dalla sua tesi di dottorato del 2000 presso l’Università della California, Irvine, intitolata “Architectural Styles and the Design of Network-based Software Architectures“, in cui ha formalizzato e definito lo stile architetturale REST (Representational State Transfer).
REST è un insieme di principi architetturali che descrivono come i sistemi distribuiti possono essere progettati per essere scalabili, efficienti e interoperabili. Fielding ha identificato REST come lo stile architetturale che sottende il successo del World Wide Web, fornendo una base teorica per la sua progettazione e il suo funzionamento. Oggi, REST è il fondamento della maggior parte dei servizi web (web services) e delle API (Application Programming Interfaces), essenziale per l’interconnessione di applicazioni e dati su internet.
Oltre al suo lavoro su REST, Fielding è stato un pioniere in numerosi altri ambiti cruciali per il web. È stato uno dei co-fondatori del progetto Apache HTTP Server, il server web più diffuso al mondo, e ha contribuito in modo significativo al suo sviluppo iniziale, inclusa la creazione del modulo mod_rewrite. È anche tra gli autori principali della specifica HTTP/1.1, il protocollo fondamentale per la comunicazione sul web, e ha avuto un ruolo attivo nella definizione degli standard URI (Uniform Resource Identifier), URL (Uniform Resource Locator) e URN (Uniform Resource Name).
Fielding è stato anche uno dei co-fondatori dell’Apache Software Foundation, un’organizzazione senza scopo di lucro che supporta lo sviluppo di software open source. La sua carriera include ruoli di ricerca e sviluppo presso diverse aziende tecnologiche di spicco, e attualmente ricopre la posizione di Principal Scientist presso Adobe Systems.
Il contributo di Roy Fielding va oltre la semplice innovazione tecnica; ha fornito una comprensione profonda e una formalizzazione dei principi che hanno permesso al web di evolversi nella piattaforma globale che è oggi. La sua opera ha influenzato generazioni di sviluppatori e architetti di sistemi, rendendolo una delle figure più autorevoli e influenti nel campo dell’informatica distribuita e dell’architettura del web.

Gates, William Henry “Bill”

(Seattle, Washington, 28 ottobre 1955) è un imprenditore, programmatore, investitore e filantropo statunitense, co-fondatore di Microsoft Corporation, l’azienda che ha rivoluzionato l’industria del personal computing.
Fin da giovane, Gates mostrò un profondo interesse per l’informatica. Dopo aver abbandonato l’Università di Harvard, nel 1975 fondò Microsoft con l’amico d’infanzia Paul Allen. La loro visione era quella di mettere “un computer su ogni scrivania e in ogni casa”. Sotto la sua guida, Microsoft sviluppò MS-DOS, il sistema operativo che divenne lo standard per i primi personal computer IBM, e successivamente il sistema operativo Windows, che dominò il mercato globale per decenni, rendendo l’informatica accessibile a milioni di persone. L’azienda creò anche la suite di produttività Office (Word, Excel, PowerPoint), consolidando ulteriormente la sua posizione di leader.
Gates ha ricoperto il ruolo di CEO di Microsoft fino al 2000, mantenendo poi la carica di Chief Software Architect fino al 2008 e di presidente del consiglio di amministrazione fino al 2014. Durante la sua carriera in Microsoft, è stato per molti anni l’uomo più ricco del mondo.
A partire dagli anni 2000, Gates ha progressivamente spostato il suo focus verso la filantropia. Nel 2000, ha co-fondato con la sua allora moglie Melinda French Gates la Bill & Melinda Gates Foundation (oggi Gates Foundation), la più grande fondazione privata trasparente al mondo. Attraverso la fondazione, ha dedicato miliardi di dollari a iniziative globali volte a migliorare la salute (in particolare attraverso la vaccinazione e l’eradicazione di malattie), ridurre la povertà estrema e promuovere l’istruzione e lo sviluppo agricolo nei paesi in via di sviluppo.
Oggi, Gates continua a essere una figura influente nel campo della tecnologia e della filantropia, impegnandosi attivamente anche in investimenti per l’energia pulita e soluzioni innovative per affrontare il cambiamento climatico. La sua eredità è duplice: ha plasmato l’era digitale e sta ora cercando di affrontare alcune delle sfide più pressanti dell’umanità.

Hamilton, Margaret Heafield

(17 agosto 1936, Paoli, Indiana) è una pionieristica scienziata informatica, ingegnere di sistemi e matematica americana, la cui carriera ha avuto un impatto fondamentale sullo sviluppo del software moderno e sull’esplorazione spaziale.
È universalmente riconosciuta per aver diretto la divisione di ingegneria del software presso il MIT Instrumentation Laboratory (successivamente Draper Laboratory), dove ha guidato il team responsabile dello sviluppo del software di volo di bordo per il programma spaziale Apollo della NASA. Il suo lavoro fu cruciale per il successo delle missioni lunari, in particolare per l’Apollo 11. Durante la fase finale dell’allunaggio, il software da lei progettato rilevò un sovraccarico del computer di bordo e diede priorità ai compiti essenziali, evitando un aborto della missione e permettendo all’equipaggio di Neil Armstrong e Buzz Aldrin di atterrare in sicurezza.
Hamilton è accreditata per aver coniato il termine “ingegneria del software” (software engineering) negli anni ’60, in un’epoca in cui lo sviluppo del software era ancora un campo emergente e spesso sottovalutato rispetto all’hardware. Attraverso il suo lavoro, ha elevato la disciplina del software a un livello di rigore e professionalità paragonabile ad altre branche dell’ingegneria.
Le sue innovazioni includono lo sviluppo di concetti chiave come il software asincrono, la pianificazione delle priorità, il rilevamento e il recupero degli errori, l’architettura di sistemi a tolleranza di errore e l’interazione uomo-macchina per la gestione delle emergenze. Questi principi sono diventati pilastri fondamentali per la progettazione di sistemi software affidabili e robusti in vari settori.
Dopo il suo periodo al MIT, Hamilton ha continuato a innovare, fondando due aziende: Higher Order Software (HOS) nel 1976 e Hamilton Technologies nel 1986, dove ha sviluppato un linguaggio universale di sistemi e un ambiente di sviluppo basato sulla sua metodologia di “Development Before The Fact” (DBTF).
Per i suoi straordinari contributi, ha ricevuto numerosi riconoscimenti, tra cui la NASA Exceptional Public Service Medal nel 2003 e la Presidential Medal of Freedom, la più alta onorificenza civile degli Stati Uniti, conferitale dal Presidente Barack Obama nel 2016. Margaret Hamilton rimane una figura ispiratrice e un simbolo dell’ingegno umano e della perseveranza nel campo della scienza e della tecnologia.

Hopper, Grace Murray

(New York, 9 dicembre 1906 – Arlington, 1 gennaio 1992) è stata una scienziata informatica, matematica e contrammiraglio della Marina degli Stati Uniti, Grace Brewster Murray Hopper è stata una figura pionieristica nello sviluppo dei computer e della programmazione. Conseguì il bachelor in matematica e fisica al Vassar College nel 1928 e il master (1930) e il dottorato di ricerca (1934) in matematica all’Università di Yale. Iniziò la sua carriera accademica come professoressa di matematica al Vassar.
Durante la Seconda Guerra Mondiale, nel 1943, si arruolò nella Riserva Navale degli Stati Uniti, venendo assegnata al Bureau of Ordnance Computation Project presso l’Università di Harvard. Qui lavorò con Howard Aiken sul computer elettromeccanico Mark I, diventando una delle prime programmatrici di computer. Fu in questo periodo che contribuì a popolarizzare il termine “bug” per indicare un malfunzionamento del sistema, per il famoso aneddoto della falena trovata nel Mark II.
Dopo la guerra, Hopper continuò la sua ricerca nel campo dell’informatica. Nel 1949 entrò a far parte della Eckert-Mauchly Computer Corporation (in seguito parte di Remington Rand e poi Sperry Rand), dove lavorò allo sviluppo dell’UNIVAC I, il primo computer commerciale. Fu qui che realizzò una delle sue innovazioni più significative: il primo compilatore. Il suo sistema A-0, sviluppato nel 1952, fu il primo programma che traduceva istruzioni simboliche in codice macchina, un passo fondamentale verso linguaggi di programmazione più accessibili e indipendenti dalla macchina.
La sua visione di linguaggi di programmazione basati sull’inglese, anziché su simboli matematici complessi, portò allo sviluppo di FLOW-MATIC, che divenne la base per il Common Business-Oriented Language (COBOL). Hopper fu una figura chiave nel comitato che creò COBOL nel 1959, un linguaggio che rivoluzionò l’elaborazione dati aziendale e rimane in uso ancora oggi.
Hopper servì nella Marina per oltre quarant’anni, ritirandosi e venendo richiamata in servizio più volte. Raggiunse il grado di contrammiraglio nel 1985, diventando la donna più anziana in servizio attivo nella Marina degli Stati Uniti al momento del suo ritiro definitivo nel 1986. Era nota per il suo approccio pratico e per le sue dimostrazioni visive, come l’uso di fili di rame per spiegare il concetto di “nanosecondo”.
Il suo lavoro ha avuto un impatto profondo sullo sviluppo dell’informatica, rendendo la programmazione più intuitiva e accessibile e gettando le basi per i moderni linguaggi di programmazione. Grace Hopper è stata insignita di numerosi riconoscimenti, tra cui la Medaglia Nazionale per la Tecnologia nel 1999 (postuma) e la Medaglia Presidenziale della Libertà nel 2016 (postuma). La sua eredità continua a ispirare generazioni di scienziati e ingegneri.

Jobs, Steve

(San Francisco, 24 febbraio 1955 – Palo Alto, 5 ottobre 2011) è stato un imprenditore, inventore e pioniere statunitense, co-fondatore di Apple Inc. e figura centrale nella rivoluzione del personal computer e dell’elettronica di consumo. La sua visione ha plasmato l’industria tecnologica moderna, influenzando profondamente il design, l’interfaccia utente e il marketing.
Dopo un breve periodo al Reed College, nel 1976 fondò Apple Computer con Steve Wozniak nel garage dei suoi genitori. Insieme, svilupparono l’Apple I e l’Apple II, computer che contribuirono a rendere l’informatica personale accessibile al grande pubblico. Jobs fu il motore dietro lo sviluppo del Macintosh nel 1984, il primo computer di successo commerciale con un’interfaccia grafica utente (GUI) e un mouse, rivoluzionando l’interazione uomo-macchina. Tuttavia, a seguito di conflitti interni e di un calo delle vendite, fu estromesso da Apple nel 1985.
Dopo la sua partenza, Jobs fondò NeXT Inc., un’azienda di hardware e software che, pur non avendo un grande successo commerciale, sviluppò tecnologie innovative, incluso il sistema operativo NeXTSTEP, che sarebbe poi diventato la base di macOS. Nello stesso periodo, acquisì la divisione grafica di Lucasfilm, trasformandola in Pixar Animation Studios. Sotto la sua guida, Pixar produsse il primo lungometraggio animato interamente in computer grafica, Toy Story (1995), e divenne uno studio di animazione di fama mondiale.
Nel 1997, Apple, sull’orlo del fallimento, acquisì NeXT, segnando il ritorno di Jobs come CEO ad interim e poi permanente. La sua seconda era in Apple fu caratterizzata da una straordinaria rinascita. Con una serie di prodotti iconici, Jobs trasformò Apple da un’azienda in difficoltà a una delle più preziose al mondo. Introdusse l’iMac (1998), che combinava design e semplicità; l’iPod (2001) e iTunes (2003), che rivoluzionarono l’industria musicale digitale; e l’iPhone (2007) e l’iPad (2010), che ridefinirono rispettivamente il settore della telefonia mobile e dei tablet. Sotto la sua leadership, Apple aprì anche una catena di negozi al dettaglio di successo e lanciò il MacBook Air.
Jobs era noto per il suo perfezionismo, la sua attenzione maniacale ai dettagli, la sua capacità di anticipare le esigenze dei consumatori e il suo carisma nelle presentazioni dei prodotti. La sua filosofia di integrazione hardware-software e la sua enfasi sull’esperienza utente hanno lasciato un’impronta indelebile. Morì a 56 anni a causa di un cancro al pancreas. La sua eredità perdura attraverso i prodotti e le aziende che ha co-fondato e guidato, e la sua influenza continua a ispirare innovatori e imprenditori in tutto il mondo.

Kahn, Robert Elliot

(New York, 23 dicembre 1938) Ingegnere elettrico e scienziato informatico statunitense, è una figura centrale nella storia di Internet, universalmente riconosciuto come uno dei suoi padri fondatori. La sua fama è indissolubilmente legata all’invenzione, insieme a Vinton Cerf, dei protocolli TCP/IP (Transmission Control Protocol/Internet Protocol), l’architettura fondamentale che ha reso possibile la nascita e lo sviluppo della rete globale.
Nato a New York nel 1938, Kahn ha conseguito la laurea in ingegneria elettrica presso il City College di New York nel 1960 e successivamente il Master (1962) e il Dottorato di ricerca (1964) presso l’Università di Princeton. Dopo esperienze lavorative presso i Bell Labs e Bolt Beranek and Newman (BBN), dove ha contribuito alla progettazione dell’ARPANET, la prima rete a commutazione di pacchetto, Kahn è entrato a far parte dell’Advanced Research Projects Agency (ARPA) del Dipartimento della Difesa degli Stati Uniti nel 1972.
Presso l’ARPA, Kahn ha avviato il programma Internetting, con l’obiettivo di collegare diverse reti a commutazione di pacchetto esistenti, inclusa l’ARPANET, le reti satellitari e le reti radio. Fu in questo contesto che, a partire dal 1973, in collaborazione con Vinton Cerf, sviluppò i concetti e l’implementazione dei protocolli TCP/IP. Questi protocolli fornirono un metodo standardizzato per la comunicazione tra reti eterogenee, permettendo ai pacchetti di dati di viaggiare senza soluzione di continuità attraverso sistemi diversi. Il TCP garantiva l’affidabilità della trasmissione dei dati, mentre l’IP si occupava dell’indirizzamento e dell’instradamento dei pacchetti. Questa innovazione ha rappresentato la base tecnica su cui è stata costruita l’intera infrastruttura di Internet.
Dopo aver lasciato l’ARPA nel 1986, Kahn ha fondato la Corporation for National Research Initiatives (CNRI), un’organizzazione senza scopo di lucro dedicata alla ricerca e allo sviluppo di infrastrutture per l’informazione. In qualità di presidente e CEO della CNRI, ha continuato a guidare importanti iniziative, tra cui lo sviluppo del concetto di National Information Infrastructure (NII) e la Digital Object Architecture (DOA), un sistema per l’identificazione, la gestione e l’accesso a oggetti digitali su larga scala.
Il contributo di Bob Kahn è stato ampiamente riconosciuto con numerosi premi e onorificenze di prestigio. Tra questi spiccano il Turing Award (con Vinton Cerf, 2004), considerato il “Premio Nobel dell’informatica”, la Presidential Medal of Freedom (2009), la National Medal of Technology (1997), il Japan Prize (2008), il Marconi Prize (2002) e il Queen Elizabeth Prize for Engineering (2013). La sua visione e il suo lavoro hanno trasformato radicalmente il modo in cui le persone comunicano, accedono alle informazioni e interagiscono a livello globale, rendendolo una figura immortale nella storia della tecnologia.

Kare, Susan

(Ithaca, New York, 5 febbario 1954) è una rinomata designer grafica americana, ampiamente riconosciuta come pioniera nel campo del design dell’interfaccia utente grafica (GUI) e dell’iconografia digitale. È celebre per il suo lavoro rivoluzionario presso Apple Computer nei primi anni ’80, dove ha creato gran parte degli elementi visivi fondamentali per il sistema operativo originale del Macintosh.
Il suo approccio al design era caratterizzato da semplicità, chiarezza e l’uso di metafore visive intuitive, essenziali per rendere i computer accessibili e facili da usare per un pubblico non tecnico. Tra le sue creazioni più iconiche per il Macintosh figurano:
* Icone: Ha progettato icone memorabili come il “Happy Mac” (l’icona di avvio), il cestino, il lazo, la bomba di sistema, la mano afferra e numerosi altri simboli che sono diventati standard de facto nell’interfaccia utente.
* Caratteri tipografici (font): Ha sviluppato i primi font bitmap del Mac, tra cui Chicago (il font di sistema predefinito), Geneva, Monaco e New York, ottimizzati per la visualizzazione su schermi a bassa risoluzione.
* Simboli: Ha disegnato il distintivo simbolo del tasto Comando (⌘), ispirato a un’insegna svedese per i luoghi di interesse.
Il lavoro di Kare ha stabilito il linguaggio visivo fondamentale per le interfacce grafiche, influenzando profondamente lo sviluppo del design digitale e la percezione dell’interazione uomo-computer. La sua capacità di comunicare concetti complessi attraverso immagini semplici e riconoscibili ha reso l’informatica più intuitiva e amichevole.
Dopo Apple, Kare ha continuato a lasciare un segno significativo nell’industria tecnologica. Ha lavorato per NeXT (fondata da Steve Jobs), dove ha progettato icone e elementi dell’interfaccia. Ha anche contribuito a Microsoft, creando icone per Windows 3.0, e ha collaborato con aziende come IBM, Facebook e Pinterest.
Il suo impatto duraturo è riconosciuto a livello internazionale. Le sue opere sono state acquisite dal Museum of Modern Art (MoMA) di New York e ha ricevuto la AIGA Medal nel 2018, uno dei più prestigiosi riconoscimenti nel campo del design grafico. Susan Kare è considerata una figura chiave nella storia del personal computing e del design dell’interfaccia utente.

Kernighan, Brian Wilson

(Toronto, Canada, 1 gennaio 1942) è un eminente informatico e professore universitario, la cui influenza sulla programmazione e sull’ingegneria del software è profonda e duratura. È universalmente riconosciuto per il suo ruolo pionieristico nello sviluppo di linguaggi di programmazione, sistemi operativi e strumenti software fondamentali.
La sua carriera è strettamente legata ai Bell Labs, dove ha lavorato per oltre trent’anni, contribuendo in modo significativo al sistema operativo Unix. Kernighan è forse più celebre come co-autore, insieme a Dennis Ritchie, del libro “The C Programming Language” (spesso chiamato “K&R C“). Questo testo, pubblicato per la prima volta nel 1978, è diventato la bibbia per generazioni di programmatori, definendo lo standard de facto per il linguaggio C e influenzando innumerevoli altri linguaggi. La sua chiarezza, concisione e completezza lo hanno reso un manuale essenziale e un modello di documentazione tecnica.
Oltre al C, Kernighan ha co-creato altri linguaggi e strumenti di programmazione di grande impatto. È stato uno dei tre sviluppatori originali del linguaggio AWK (le iniziali dei cognomi Aho, Weinberger, Kernighan), un potente strumento per l’elaborazione di testo e la manipolazione di dati, ampiamente utilizzato negli ambienti Unix e Linux. Ha anche contribuito allo sviluppo di AMPL (A Mathematical Programming Language), un linguaggio per la modellazione di problemi di ottimizzazione su larga scala.
Tra le sue altre opere letterarie influenti figurano “The Unix Programming Environment” (con Rob Pike), che ha introdotto molti programmatori alla filosofia e agli strumenti di Unix, e “The Practice of Programming” (con Rob Pike), che offre consigli pratici sulla scrittura di codice efficace e robusto. I suoi libri sono noti per la loro enfasi sulla semplicità, l’eleganza e la praticità nella progettazione del software.
Dopo la sua lunga carriera ai Bell Labs, Kernighan è diventato professore presso il Dipartimento di Informatica dell’Università di Princeton, dove continua a insegnare e a ispirare nuove generazioni di informatici.
Il contributo di Brian Kernighan va oltre la creazione di specifici linguaggi o strumenti; egli ha plasmato il modo in cui i programmatori pensano al software, promuovendo principi di chiarezza, efficienza e modularità. La sua eredità è visibile in quasi ogni aspetto dell’informatica moderna, dai sistemi operativi ai linguaggi di programmazione, rendendolo una figura centrale nella storia dell’informatica. È anche l’autore del detto: “Debugging is twice as hard as writing the code in the first place. Therefore, if you write the code as cleverly as possible, you are, by definition, not smart enough to debug it.

Knuth, Donald Ervin

(Milwaukee, Wisconsin, 10 gennaio 1938) è un eminente informatico, matematico e professore emerito statunitense, universalmente riconosciuto come una delle figure più influenti nella storia dell’informatica. La sua opera monumentale, The Art of Computer Programming (TAOCP), è considerata la bibbia dell’informatica teorica e pratica. Attraverso questa serie di volumi, Knuth ha sistematicamente analizzato e formalizzato i fondamenti degli algoritmi e delle strutture dati, fornendo un rigore matematico senza precedenti all’analisi computazionale.
Per facilitare la pubblicazione di TAOCP con la qualità tipografica desiderata, Knuth ha sviluppato i sistemi di composizione tipografica TeX e Metafont. Questi sistemi hanno rivoluzionato il settore dell’editoria scientifica e tecnica, diventando standard *de facto* per la composizione di testi matematici e scientifici. È anche il pioniere del concetto di literate programming, una metodologia che enfatizza la creazione di software leggibile e comprensibile sia per gli esseri umani che per i compilatori, integrando documentazione e codice in un unico flusso narrativo.
Dopo aver conseguito il dottorato di ricerca in matematica presso il California Institute of Technology (Caltech) nel 1963, ha intrapreso una brillante carriera accademica, culminata nella cattedra di professore di Computer Science presso la Stanford University, dove è stato nominato professore emerito nel 1990. Il suo lavoro ha profondamente influenzato lo sviluppo dell’informatica, stabilendo standard per la progettazione e l’analisi degli algoritmi e promuovendo un approccio matematicamente rigoroso alla disciplina.
Tra i numerosi riconoscimenti, spicca il Premio Turing, ricevuto nel 1974 per i suoi contributi fondamentali all’analisi degli algoritmi e alla progettazione dei linguaggi di programmazione. È membro di prestigiose accademie scientifiche e ha ricevuto decine di lauree honoris causa. Knuth è noto per la sua meticolosità, la sua dedizione alla perfezione e la sua convinzione che l’informatica sia tanto un’arte quanto una scienza. La sua influenza perdura attraverso i suoi scritti, i suoi sistemi software e la sua visione di un’informatica elegante, efficiente e profondamente compresa.

Lamarr, Hedi

(Vienna, 9 novembre 1914 – Casselberry, Florida, 19 gennaio 2000) nata Hedwig Eva Maria Kiesler a Vienna, è stata un’attrice austriaca naturalizzata statunitense e un’inventrice pionieristica. Riconosciuta come una delle donne più belle del mondo durante l’età d’oro di Hollywood, la sua vita fu un singolare connubio di glamour cinematografico e genio scientifico.
La sua carriera cinematografica iniziò in Europa, dove suscitò scandalo con il film cecoslovacco Ecstasy (1933) per una scena di nudo e un’espressione di orgasmo, che la rese celebre ma anche controversa. Trasferitasi negli Stati Uniti nel 1937, fu scoperta dal magnate della MGM Louis B. Mayer, che la ribattezzò Hedy Lamarr e la lanciò come star. Recitò in numerosi successi hollywoodiani, tra cui Algeria (1938), La febbre dell’oro nero (1940), Il dottor Jekyll e Mr. Hyde (1941) e Sansone e Dalila (1949), spesso sfruttando la sua immagine di donna esotica e seducente.
Parallelamente alla sua carriera di attrice, Lamarr coltivava un profondo interesse per la scienza e l’ingegneria. Durante la Seconda Guerra Mondiale, preoccupata per il conflitto, collaborò con il compositore George Antheil per sviluppare un sistema di comunicazione segreta. Il loro obiettivo era creare un metodo per guidare i siluri a distanza che fosse immune alle intercettazioni e alle interferenze nemiche.
Nel 1942, Lamarr e Antheil brevettarono l’idea del “frequency-hopping spread spectrum” (spettro espanso a salto di frequenza). Questa tecnologia prevedeva la trasmissione di segnali radio su diverse frequenze che cambiavano rapidamente e in modo sincronizzato tra trasmettitore e ricevitore, rendendo estremamente difficile per il nemico bloccare o rilevare il segnale. Sebbene l’invenzione non fu immediatamente adottata dalla Marina degli Stati Uniti, le sue fondamenta teoriche si rivelarono rivoluzionarie.
Decenni dopo, il principio del salto di frequenza divenne la base per molte tecnologie wireless moderne, inclusi il Wi-Fi, il Bluetooth, il GPS e i sistemi di comunicazione CDMA per i telefoni cellulari. La sua genialità fu riconosciuta solo molto più tardi nella vita e postuma, con l’inserimento nella National Inventors Hall of Fame nel 2014.
Hedy Lamarr rimane una figura iconica che ha sfidato le convenzioni, dimostrando che la bellezza e l’intelletto possono coesistere in modo straordinario, lasciando un’eredità duratura sia nel mondo del cinema che in quello della tecnologia.

Leibniz, Gottfried Wilhelm von

(Lipsia, 1° luglio 1646 – Hannover, 14 novembre 1716) è stato un filosofo, matematico, scienziato, logico, diplomatico, giurista e bibliotecario tedesco, annoverato tra le figure più eminenti e versatili del pensiero occidentale e tra i massimi polimati (“uomini universali”) dell’età moderna.
La sua opera filosofica è caratterizzata da un razionalismo sistematico e da una metafisica complessa. È il creatore della dottrina delle monadi, sostanze semplici, indivisibili e “senza finestre“, che costituiscono gli elementi ultimi della realtà, ciascuna riflettendo l’intero universo da un proprio punto di vista. Per spiegare la coerenza tra queste monadi, Leibniz formulò il principio dell’armonia prestabilita, secondo cui Dio ha creato l’universo come il “migliore dei mondi possibili“, in cui ogni monade agisce in perfetta sincronia con le altre. La sua opera “Teodicea” affronta il problema del male nel contesto di questa visione ottimistica.
In campo matematico, Leibniz è celebre per aver sviluppato, indipendentemente da Isaac Newton, il calcolo infinitesimale (differenziale e integrale), introducendo una notazione (come *dx*, *dy* e il simbolo di integrale ∫) che è ancora oggi universalmente adottata. Fu anche il pioniere del sistema numerico binario, fondamento dell’informatica moderna, e progettò una delle prime calcolatrici meccaniche in grado di eseguire tutte e quattro le operazioni aritmetiche.
I suoi interessi spaziavano ampiamente: nella logica, fu un precursore della logica simbolica con l’idea di una “caratteristica universale” e di un “calcolo razionale” per risolvere le dispute; in fisica, contribuì alla dinamica con la teoria della “vis viva” (forza viva); si dedicò anche alla linguistica, alla storia, al diritto internazionale e alla diplomazia, promuovendo l’unificazione delle chiese e la pace tra gli stati europei.
L’eredità di Leibniz è immensa, avendo influenzato profondamente la filosofia continentale (in particolare Kant), la matematica e la scienza. La sua capacità di sintetizzare e innovare in così tanti campi lo rende una figura centrale dell’Illuminismo e uno dei padri fondatori del pensiero moderno.

Lovelace, Ada

(Londra, 10 dicembre 1815 – Marleybone, 27 novembre 1852) Augusta Ada King, Contessa di Lovelace, nata Ada Gordon, è stata una matematica e scrittrice inglese, ampiamente riconosciuta come la prima programmatrice di computer della storia. Figlia del celebre poeta Lord Byron e della matematica e attivista sociale Annabella Milbanke, la sua educazione fu fortemente orientata verso la scienza e la matematica, un approccio incoraggiato dalla madre per contrastare le tendenze poetiche del padre e sviluppare il suo “intelletto analitico“.
Fin dalla giovane età, Lovelace dimostrò un’eccezionale predisposizione per la logica e i numeri. Fu istruita da tutor privati, tra cui Mary Somerville, una rinomata scienziata e scrittrice, che la introdusse a Charles Babbage, il “padre del computer“. Questo incontro, avvenuto nel 1833, segnò l’inizio di una collaborazione intellettuale che avrebbe definito la sua eredità. Lovelace rimase affascinata dai progetti di Babbage, in particolare dalla sua Macchina Analitica, un dispositivo meccanico teorico progettato per eseguire calcoli complessi e che prefigurava il computer moderno.
Il contributo più significativo di Lovelace emerse nel 1843, quando tradusse dall’italiano all’inglese un articolo del matematico Luigi Menabrea sulla Macchina Analitica di Babbage. A questa traduzione, Lovelace aggiunse un ampio set di “Note” originali, che si rivelarono tre volte più lunghe dell’articolo stesso. In queste note, Lovelace non si limitò a descrivere il funzionamento della macchina, ma ne esplorò il potenziale ben oltre il semplice calcolo numerico.
Le sue “Note” contenevano quella che è considerata la prima descrizione di un algoritmo inteso per essere eseguito da una macchina, un metodo per calcolare i numeri di Bernoulli. Questo è ampiamente citato come il primo programma per computer della storia. Ma la sua visione andava oltre: Lovelace intuì che la Macchina Analitica avrebbe potuto manipolare non solo numeri, ma qualsiasi tipo di simbolo, aprendo la strada all’elaborazione di musica, immagini e altre forme di dati. Previde che la macchina avrebbe potuto “tessere schemi algebrici proprio come il telaio di Jacquard tesse fiori e foglie“. Questa intuizione di una macchina universale capace di elaborare simboli arbitrari è considerata una previsione straordinariamente lucida del concetto di computer a scopo generale.
Nonostante la sua vita relativamente breve, Ada Lovelace lasciò un’impronta indelebile nella storia della scienza e della tecnologia. La sua capacità di vedere il potenziale astratto e non solo numerico delle macchine di Babbage la rende una figura pionieristica e visionaria. È celebrata come una delle prime figure a comprendere appieno il potenziale dei computer, e il linguaggio di programmazione “Ada” è stato chiamato in suo onore dal Dipartimento della Difesa degli Stati Uniti. La sua eredità continua a ispirare nel campo dell’informatica e della programmazione.

Mayer, Marissa

(Wausau, Wisconsin, 30 maggio 1975) è una dirigente d’azienda e imprenditrice statunitense, nota principalmente per essere stata CEO di Yahoo! e una delle prime dipendenti e figure chiave di Google.
Ha conseguito una laurea in Sistemi Simbolici e un master in Informatica, con specializzazione in intelligenza artificiale, presso la Stanford University.
Nel 1999, Mayer è stata la ventesima dipendente di Google e la prima ingegnera donna assunta dall’azienda. Durante i suoi tredici anni a Google, ha ricoperto ruoli di crescente responsabilità, diventando Vice President of Search Products and User Experience. È stata una figura centrale nello sviluppo e nel lancio di prodotti iconici come Google Search, Google Images, Google Maps, Google Books, Gmail e iGoogle, contribuendo in modo significativo alla definizione dell’interfaccia utente e dell’esperienza prodotto che hanno reso Google un gigante tecnologico. La sua leadership era caratterizzata da un approccio data-driven e una forte attenzione al design e alla facilità d’uso.
Nel luglio 2012, Mayer è stata nominata Presidente e CEO di Yahoo!, un’azienda in difficoltà che cercava di ritrovare la propria rilevanza nel panorama digitale. Durante il suo mandato, ha implementato una strategia di rilancio incentrata sul mobile, l’acquisizione di startup (tra cui Tumblr per 1,1 miliardi di dollari nel 2013) e il miglioramento dei prodotti esistenti come Flickr. Ha anche cercato di rivitalizzare la cultura aziendale. Nonostante gli sforzi, Yahoo! ha continuato a lottare contro la concorrenza di Google e Facebook e ha affrontato sfide significative, inclusi problemi di sicurezza dei dati. Il suo periodo a Yahoo! si è concluso con la vendita delle attività operative principali dell’azienda a Verizon Communications nel 2017, per 4,48 miliardi di dollari, segnando la fine di Yahoo! come entità indipendente.
Dopo l’esperienza in Yahoo!, Mayer ha co-fondato Lumi Labs nel 2018, una startup focalizzata sull’intelligenza artificiale e le applicazioni di consumo, successivamente rinominata Sunshine Contacts, che mira a reinventare la gestione dei contatti attraverso l’AI.
Marissa Mayer è riconosciuta come una figura influente nel settore tecnologico, pioniera per le donne nell’ingegneria e nella leadership aziendale, la cui carriera ha attraversato momenti cruciali della storia di internet, dalla crescita esponenziale di Google al tentativo di rilancio di un’icona del web come Yahoo!.

Miner, Jay

(Prescot, Arizona, 31 maggio 1932 – Mountain View, California, 20 giugno 1994) è stato un ingegnere elettrico e architetto di computer americano, ampiamente riconosciuto come il “Padre dell’Amiga“. La sua carriera è stata caratterizzata da un’innovazione pionieristica nella progettazione di chip personalizzati per sistemi di intrattenimento e personal computer, che hanno rivoluzionato le capacità grafiche e sonore dell’epoca.
Dopo aver lavorato presso General Digital Corporation, Miner si unì ad Atari negli anni ’70, dove divenne una figura chiave nello sviluppo della console Atari 2600. Fu il principale progettista del chip “Stella”, un microprocessore personalizzato che gestiva la grafica e l’audio della console, rendendola una delle piattaforme di gioco più influenti della storia. Successivamente, contribuì alla progettazione dei computer Atari a 8 bit (Atari 400/800), sviluppando i chip ANTIC e CTIA, che offrivano capacità grafiche e sonore avanzate per i personal computer dell’epoca.
Nel 1982, Miner lasciò Atari per co-fondare Amiga Corporation (originariamente nota come Hi-Toro). Con un team di ingegneri, guidò lo sviluppo di un nuovo tipo di computer, il cui nome in codice era “Lorraine“. La sua visione era quella di creare una macchina con capacità multimediali superiori, basata su un’architettura di chip personalizzati (tra cui Agnus, Denise e Paula) che avrebbero gestito grafica, suono e operazioni di input/output in modo efficiente, liberando la CPU per altre operazioni. Questo approccio era rivoluzionario e permise all’Amiga di superare di gran lunga i suoi contemporanei in termini di prestazioni multimediali.
Il risultato fu il Commodore Amiga 1000, lanciato nel 1985. L’Amiga si distinse per la sua grafica a colori avanzata, il suono stereo a quattro canali e un sistema operativo multitasking pre-emptive, diventando una piattaforma di riferimento per la produzione video, l’animazione, il desktop publishing e i videogiochi.
Jay Miner è ricordato come un visionario la cui ingegnosità nella progettazione di hardware ha plasmato l’industria dei personal computer e ha aperto la strada a molte delle capacità multimediali che oggi diamo per scontate. La sua eredità vive attraverso l’influenza duratura dell’Amiga e il suo approccio innovativo all’architettura dei sistemi. Morì nel 1994, poco dopo il fallimento di Commodore.

Muḥammad ibn Mūsā al-Khwārizmī

(Khwarazm, Turkmenistan, c. 780 – Baghad, Iraq, c. 850 CE) è stato un eminente matematico, astronomo e geografo persiano, la cui opera fu fondamentale per lo sviluppo della scienza islamica e per la sua successiva trasmissione all’Occidente. Visse e operò a Baghdad, presso la celebre Casa della Saggezza (Bayt al-Ḥikma), sotto il patrocinio del califfo abbaside al-Ma’mun, durante l’età d’oro islamica.
La sua opera più influente è il Kitāb al-mukhtaṣar fī ḥisāb al-jabr waʾl-muqābala (Libro conciso sul calcolo per completamento e bilanciamento), da cui deriva il termine “algebra“. Questo trattato introdusse un approccio sistematico e analitico alla risoluzione di equazioni lineari e quadratiche, fornendo metodi algebrici distinti dalle precedenti soluzioni geometriche greche. Al-Khwārizmī è per questo considerato uno dei padri fondatori dell’algebra.
Altrettanto cruciale fu il suo contributo alla diffusione del sistema numerico indo-arabo. Il suo trattato Kitāb al-jamʿ waʾl-tafrīq bi-ḥisāb al-Hind (Libro sull’addizione e sottrazione secondo il calcolo indiano), tradotto in latino come *Algorismi de numero Indorum*, fu determinante per l’introduzione in Europa del sistema posizionale decimale, inclusivo dello zero. La latinizzazione del suo nome, “Algorismi”, diede origine al termine “algoritmo”, che oggi indica una sequenza finita di istruzioni per risolvere un problema o eseguire un calcolo.
Al-Khwārizmī fu anche autore di importanti tavole astronomiche (Zīj) e di un’opera di geografia che revisionava e integrava la Geografia di Tolomeo, fornendo coordinate di città e regioni con maggiore precisione.
L’impatto di al-Khwārizmī sulla matematica e sulla scienza occidentale fu immenso. Le sue opere, tradotte in latino nel XII secolo, divennero testi fondamentali per gli studiosi europei, ponendo le basi per l’algebra moderna e per l’adozione universale del sistema numerico che utilizziamo ancora oggi. La sua figura rappresenta un ponte essenziale tra le conoscenze matematiche orientali e occidentali, rendendolo una delle personalità più significative nella storia del pensiero scientifico.

Page, Lawrence Edward “Larry”

(East Lansing, Michigan, il 26 marzo 1973) è un informatico e imprenditore statunitense, co-fondatore di Google, una delle aziende tecnologiche più influenti al mondo.
Figlio di professori universitari di informatica, Page ha mostrato fin da giovane un profondo interesse per la tecnologia. Ha conseguito la laurea in ingegneria informatica presso l’Università del Michigan e ha proseguito con un dottorato di ricerca in informatica presso la Stanford University. Fu a Stanford che, nel 1995, incontrò Sergey Brin. Insieme, svilupparono un algoritmo per classificare le pagine web basato sulla rilevanza dei link in entrata, un concetto che chiamarono “PageRank“. Questo algoritmo fu la base per il loro motore di ricerca, inizialmente chiamato “BackRub“.
Nel settembre 1998, Page e Brin fondarono Google Inc. con la missione di “organizzare l’informazione mondiale e renderla universalmente accessibile e utile“. Page ricoprì il ruolo di CEO dal 1998 al 2001, supervisionando la rapida crescita iniziale dell’azienda. Dopo un periodo in cui Eric Schmidt assunse la guida, Page tornò a essere CEO di Google nel 2011, guidando l’azienda attraverso una fase di espansione significativa, che incluse l’acquisizione di Motorola Mobility e un maggiore focus su Android, Chrome e altre iniziative strategiche.
Nel 2015, Page fu l’artefice di una profonda ristrutturazione aziendale, che portò alla creazione di Alphabet Inc., una holding che divenne la società madre di Google e di altre “moonshot companies” (aziende con progetti ambiziosi e a lungo termine) come Waymo (veicoli a guida autonoma) e Verily (scienze della vita). Page assunse il ruolo di CEO di Alphabet, con l’obiettivo di dedicarsi a progetti innovativi e alla visione strategica a lungo termine del gruppo, delegando la gestione quotidiana di Google a Sundar Pichai.
Nel dicembre 2019, Page ha annunciato le sue dimissioni dalla carica di CEO di Alphabet, passando il testimone a Sundar Pichai, che ha assunto anche la guida della holding. Nonostante abbia lasciato i ruoli esecutivi, Page rimane un membro del consiglio di amministrazione di Alphabet e uno dei maggiori azionisti, mantenendo una significativa influenza strategica.
Larry Page è riconosciuto come un visionario che ha rivoluzionato il modo in cui le persone accedono e interagiscono con l’informazione. La sua enfasi sull’innovazione, sulla scalabilità e sulla risoluzione di problemi complessi ha lasciato un’impronta indelebile nel panorama tecnologico globale, contribuendo a plasmare l’era digitale. La sua fortuna personale lo colloca costantemente tra le persone più ricche del mondo.

Pascal, Blaise

(Clermont-Ferrand, 19 giugno 1623 – Parigi, 19 agosto 1662) è stato un matematico, fisico, filosofo, teologo e scrittore francese, figura emblematica del XVII secolo e uno dei più grandi intellettuali della storia occidentale.
Figlio di Étienne Pascal, anch’egli matematico, Blaise mostrò un precoce e straordinario talento. Autodidatta, a soli sedici anni formulò il celebre teorema di Pascal sulla geometria proiettiva. Nel 1642, per aiutare il padre nel suo lavoro di esattore delle tasse, inventò la “Pascalina“, una delle prime calcolatrici meccaniche, capace di eseguire addizioni e sottrazioni.
I suoi contributi alla fisica furono rivoluzionari. Tra il 1646 e il 1648, riprendendo gli studi di Torricelli, condusse esperimenti sulla pressione atmosferica, culminati nell’esperimento del Puy-de-Dôme, che dimostrò la diminuzione della pressione con l’altitudine e l’esistenza del vuoto. Formulò la legge di Pascal sull’idrostatica, che stabilisce che la pressione esercitata su un fluido incomprimibile si trasmette con la stessa intensità in ogni punto del fluido e in ogni direzione, principio alla base della pressa idraulica e della siringa, da lui inventate. L’unità di misura della pressione nel Sistema Internazionale è stata chiamata “Pascal” in suo onore.
In matematica, è considerato, insieme a Pierre de Fermat, uno dei fondatori della teoria della probabilità, sviluppata attraverso la corrispondenza tra i due sul problema dei dadi. I suoi lavori sul “triangolo aritmetico” (noto oggi come triangolo di Pascal) furono fondamentali per la combinatoria e il calcolo binomiale.
La sua vita subì una svolta decisiva con la “conversione” religiosa del 1654, un’esperienza mistica che lo portò ad abbandonare in gran parte gli studi scientifici per dedicarsi alla filosofia e alla teologia. Divenne un fervente sostenitore del giansenismo, un movimento teologico cattolico. Le sue opere più celebri di questo periodo sono le Lettres provinciales (1656-1657), una brillante difesa del giansenismo contro i gesuiti, e i Pensées (pubblicati postumi nel 1670), una raccolta frammentaria di riflessioni sull’uomo, la fede e la ragione, intesa come apologia del cristianesimo. Nei Pensées è contenuta la famosa “scommessa di Pascal“, un argomento pragmatico per credere in Dio.
Pascal morì a soli 39 anni, lasciando un’eredità intellettuale immensa. Il suo pensiero ha influenzato profondamente la filosofia, la teologia e la letteratura, mentre le sue scoperte scientifiche hanno posto le basi per lo sviluppo di intere discipline. Il linguaggio di programmazione “Pascal”, creato nel 1970, è un ulteriore tributo al suo genio poliedrico.

Ritchie, Dennis MacAlistair

(Bronxville, New York, 9 settembre 1941 – Berkeley Heights, New Jersey, 12 ottobre 2011) è stato un influente informatico statunitense, ampiamente riconosciuto come una delle figure più significative nella storia dell’informatica moderna. La sua carriera, trascorsa quasi interamente presso i Bell Labs, è stata caratterizzata da contributi fondamentali che hanno plasmato il panorama dei sistemi operativi e dei linguaggi di programmazione.
Ritchie è celebre soprattutto per essere stato il creatore del linguaggio di programmazione C. Sviluppato tra il 1969 e il 1973, principalmente presso i Bell Labs, il C emerse come un’evoluzione del linguaggio B (a sua volta derivato dal BCPL), creato da Ken Thompson. Ritchie raffinò e ampliò il B, introducendo tipi di dati, strutture e un sistema di puntatori che lo resero potente, efficiente e flessibile. Il C divenne rapidamente il linguaggio di elezione per lo sviluppo di sistemi operativi e applicazioni, grazie alla sua capacità di combinare la potenza dell’assembler con la portabilità e la leggibilità dei linguaggi di alto livello. La sua influenza è incalcolabile: è alla base di innumerevoli sistemi operativi (inclusi Linux, macOS e Windows), database, browser web e software embedded, e ha ispirato la creazione di linguaggi successivi come C++, Java, C# e Objective-C.
Parallelamente al suo lavoro sul C, Ritchie fu una figura chiave nello sviluppo del sistema operativo Unix. Lavorando a stretto contatto con Ken Thompson, Ritchie contribuì in modo decisivo alla riscrittura di Unix in C (originariamente era stato scritto in assembly). Questa mossa fu rivoluzionaria, poiché rese Unix molto più portabile su diverse architetture hardware, accelerandone l’adozione e la diffusione. Unix, con la sua architettura modulare, la filosofia dei “piccoli strumenti che fanno una cosa bene” e il suo potente sistema di file, divenne un modello per i sistemi operativi futuri e la base per lo sviluppo di sistemi come Linux e macOS.
Per i loro contributi rivoluzionari al C e a Unix, Ritchie e Ken Thompson furono insigniti del **Premio Turing** nel 1983, la più alta onorificenza nel campo dell’informatica, con la motivazione “per il loro sviluppo della teoria generica dei sistemi operativi e in particolare per l’implementazione del sistema operativo UNIX”. Ricevettero anche la **National Medal of Technology** nel 1998 e il **Japan Prize** nel 2011.
La scomparsa di Dennis Ritchie ha segnato la perdita di un gigante dell’informatica. Il suo lavoro ha fornito gli strumenti fondamentali su cui è stata costruita gran parte dell’infrastruttura digitale moderna. Il linguaggio C e il sistema operativo Unix non sono solo artefatti storici, ma pilastri viventi che continuano a sostenere e modellare il mondo tecnologico contemporaneo, rendendo Ritchie una figura immortale nel pantheon dell’informatica.

Sandberg, Sheryl

(Washington, D.C., 28 agosto 1969) è una dirigente d’azienda, autrice e attivista statunitense, ampiamente riconosciuta per il suo ruolo di Chief Operating Officer (COO) di Facebook (ora Meta Platforms) e per il suo influente libro “Lean In: Women, Work, and the Will to Lead”.
Nata a Washington, D.C., Sandberg ha conseguito una laurea in Economia e un MBA presso l’Università di Harvard. Ha iniziato la sua carriera presso la Banca Mondiale, lavorando con il suo mentore, Lawrence Summers, che in seguito ha seguito al Dipartimento del Tesoro degli Stati Uniti, dove ha ricoperto il ruolo di Capo di Gabinetto durante l’amministrazione Clinton.
Nel 2001, Sandberg è entrata in Google, dove ha ricoperto la posizione di Vice President of Global Online Sales and Operations. Durante i suoi sette anni in azienda, ha contribuito in modo significativo alla crescita e all’espansione delle operazioni pubblicitarie e di vendita online di Google, gestendo team in tutto il mondo.
Il suo impatto più significativo si è concretizzato a partire dal 2008, quando Mark Zuckerberg l’ha reclutata come COO di Facebook. Sandberg è stata fondamentale nella trasformazione di Facebook da una startup promettente a una potenza globale dei social media, guidando la monetizzazione della piattaforma e la sua espansione internazionale. Sotto la sua leadership, i ricavi di Facebook sono cresciuti esponenzialmente, e ha svolto un ruolo chiave nello sviluppo del suo modello di business basato sulla pubblicità. Nel 2012, è diventata la prima donna a far parte del consiglio di amministrazione di Facebook.
Nel 2013, Sandberg ha pubblicato “Lean In”, un bestseller internazionale che ha acceso un dibattito globale sulle donne e la leadership. Il libro, basato sulle sue esperienze personali e professionali, incoraggia le donne a superare le barriere interne ed esterne, a “appoggiarsi” (lean in) alle opportunità di carriera e a perseguire le proprie ambizioni. Ha fondato LeanIn.org, un’organizzazione senza scopo di lucro dedicata a sostenere le donne nel raggiungimento dei loro obiettivi, attraverso risorse e “circoli” di supporto.
Nel 2022, Sandberg ha annunciato le sue dimissioni da COO di Meta Platforms, pur rimanendo nel consiglio di amministrazione, per dedicarsi maggiormente alla sua fondazione filantropica e ad altre iniziative. La sua carriera è stata caratterizzata da un’influenza notevole nel settore tecnologico e da un impegno costante per l’uguaglianza di genere, rendendola una delle figure femminili più riconoscibili e discusse nel mondo degli affari e della tecnologia.

Sinclair, Clive

(Richmond, Regno Unito, 30 luglio 1940 – Londra, Regno Unito, 16 settembre 2021) Sir Clive Marles Sinclair è stato un inventore, imprenditore e pioniere britannico nel campo dell’elettronica di consumo, celebre per aver reso accessibili tecnologie avanzate a un vasto pubblico. La sua carriera è stata caratterizzata da una costante ricerca di miniaturizzazione e innovazione, che ha avuto un impatto significativo sull’industria tecnologica, in particolare nel Regno Unito.
Sinclair fondò la sua prima azienda, Sinclair Radionics, nel 1961. Inizialmente si concentrò su kit radio e amplificatori hi-fi, ma ottenne il primo grande successo con le calcolatrici elettroniche. Nel 1972, lanciò la Sinclair Executive, la prima calcolatrice tascabile sottile al mondo, che gli valse numerosi riconoscimenti per il design e l’ingegneria.
Nel 1979, fondò Sinclair Research Ltd., l’azienda che lo avrebbe reso celebre a livello globale. Sotto questa insegna, Sinclair rivoluzionò il mercato dei computer domestici. Nel 1980, presentò lo ZX80, il primo computer domestico disponibile nel Regno Unito per meno di 100 sterline, rendendo l’informatica accessibile a un pubblico di massa. Fu seguito dallo ZX81 (1981), che vendette oltre 1,5 milioni di unità, e soprattutto dallo ZX Spectrum (1982). Lo Spectrum, con la sua grafica a colori e il prezzo competitivo, divenne un fenomeno culturale, vendendo oltre 5 milioni di unità e alimentando una generazione di programmatori e sviluppatori di videogiochi nel Regno Unito e oltre.
Oltre ai computer, Sinclair Research produsse anche altri dispositivi innovativi, come il Microvision (1977), il televisore tascabile più piccolo del mondo. Tuttavia, non tutte le sue iniziative ebbero successo commerciale. Il Sinclair C5 (1985), un veicolo elettrico a tre ruote, fu un notevole fallimento commerciale, nonostante rappresentasse un’idea pionieristica nel campo della mobilità sostenibile.
Sinclair fu insignito del titolo di Knight Bachelor nel 1983 per i suoi servizi all’industria britannica. La sua visione ha contribuito a democratizzare l’accesso alla tecnologia, influenzando profondamente lo sviluppo dell’informatica personale. Morì l’11 settembre 2021, lasciando un’eredità duratura come figura chiave nell’era d’oro dell’elettronica britannica e un innovatore instancabile.

Stallman, Richard

(New York, 16 marzo 1953) è un influente programmatore di computer, attivista e fondatore del movimento per il software libero. La sua figura è centrale nella storia dell’informatica moderna e nella promozione dei diritti degli utenti nel mondo digitale.
Formatosi al MIT Artificial Intelligence Lab negli anni ’70, Stallman ha vissuto un’epoca in cui la cultura della condivisione del codice sorgente era prevalente. Con il progressivo passaggio del software da bene comune a prodotto proprietario, ha percepito una minaccia alla libertà degli utenti di studiare, modificare e distribuire il software.
Nel 1983, ha lanciato il Progetto GNU (acronimo ricorsivo per “GNU’s Not Unix“), con l’obiettivo di sviluppare un sistema operativo completo e compatibile con Unix, ma interamente composto da software libero. Questa iniziativa era motivata da una profonda convinzione etica: il software dovrebbe garantire agli utenti quattro libertà essenziali: la libertà di eseguire il programma per qualsiasi scopo, la libertà di studiare come funziona il programma e adattarlo alle proprie esigenze (accesso al codice sorgente), la libertà di ridistribuire copie, e la libertà di migliorare il programma e rilasciare i miglioramenti al pubblico.
Per formalizzare e proteggere queste libertà, Stallman ha ideato il concetto di copyleft e ha sviluppato la GNU General Public License (GPL). La GPL è una licenza di software che impiega la legge sul copyright per garantire che il software e le sue versioni modificate rimangano libere.
Nel 1985, ha fondato la Free Software Foundation (FSF), un’organizzazione senza scopo di lucro dedicata alla promozione del software libero e alla difesa dei diritti degli utenti di computer. Attraverso la FSF, Stallman ha continuato a evangelizzare la sua filosofia, distinguendo nettamente il “software libero” (free as in freedom) dal “software gratuito” (free as in beer).
Sebbene il kernel del sistema GNU, Hurd, non abbia raggiunto una vasta adozione, il Progetto GNU ha fornito la maggior parte degli strumenti e delle librerie fondamentali che, combinati con il kernel Linux sviluppato da Linus Torvalds, hanno dato vita al sistema operativo GNU/Linux, oggi ampiamente utilizzato.
Stallman è anche il creatore dell’editor di testo Emacs e del compilatore GCC (GNU Compiler Collection), due strumenti seminali nel mondo dello sviluppo software.
La sua visione ha avuto un impatto profondo non solo sul movimento del software libero, ma anche sul più ampio movimento open source (sebbene Stallman preferisca la terminologia “software libero” per sottolineare l’aspetto etico e morale). È un critico vocale del software proprietario, della gestione dei diritti digitali (DRM) e dei brevetti software, che considera ostacoli alla libertà e all’innovazione.
Figura spesso controversa per le sue posizioni intransigenti e il suo stile comunicativo diretto, Richard Stallman rimane una delle voci più influenti e coerenti nella difesa dell’etica e della libertà nell’era digitale, un pioniere che ha plasmato il modo in cui pensiamo al software e ai diritti degli utenti.

Swartz, Aaron

(Highland Park, Illinois, 8 novembre 1986 – New York, 11 gennaio 2013) è stato un programmatore, scrittore, attivista e imprenditore americano, figura centrale nel movimento per la libertà dell’informazione e l’open access. La sua breve ma intensa vita è stata caratterizzata da contributi significativi allo sviluppo di internet e da un profondo impegno per la condivisione della conoscenza.
Swartz mostrò precocemente un talento eccezionale per l’informatica e la programmazione. Già adolescente, fu coinvolto nella creazione della specifica RSS 1.0, un formato per la distribuzione di contenuti web. Successivamente, fu co-creatore del linguaggio di markup Markdown e del framework web Infogami, che diede origine a Reddit, una delle piattaforme sociali più influenti di internet, di cui fu co-fondatore.
Il suo lavoro si estese anche al campo della digitalizzazione e dell’accessibilità culturale. Contribuì allo sviluppo di Creative Commons, un’organizzazione che fornisce licenze legali per la condivisione di opere creative, e fu un membro chiave del team di Open Library, un progetto per creare una pagina web per ogni libro pubblicato.
Swartz era un fervente sostenitore dell’accesso libero e universale alla conoscenza. Nel 2008, scrisse il “Guerilla Open Access Manifesto“, un appello all’azione per liberare le informazioni bloccate dietro paywall e sistemi proprietari. Questa convinzione lo portò a fondare Demand Progress, un gruppo di advocacy politica che si batteva per i diritti civili e le riforme governative, giocando un ruolo cruciale nella lotta contro il SOPA (Stop Online Piracy Act) e il PIPA (PROTECT IP Act).
La sua battaglia per l’open access lo portò a scontrarsi con la legge. Nel 2011, fu arrestato per aver scaricato milioni di articoli accademici dalla piattaforma JSTOR attraverso la rete del Massachusetts Institute of Technology (MIT), con l’intento dichiarato di renderli pubblicamente disponibili. Le accuse federali, che includevano frode informatica e frode telematica, erano gravi e prevedevano pene detentive significative.
Il caso legale contro Swartz suscitò un ampio dibattito sulla criminalizzazione dell’attivismo digitale e sull’eccessiva severità delle leggi sul crimine informatico. Il 11 gennaio 2013, all’età di 26 anni, Aaron Swartz si tolse la vita. La sua morte innescò un’ondata di indignazione e dolore, portando molti a criticare la condotta dei procuratori federali e del MIT.
La sua eredità continua a influenzare il movimento per l’open access, la riforma della giustizia penale e il dibattito sui diritti digitali. È ricordato come un visionario che ha dedicato la sua vita a costruire un internet più aperto e accessibile, e la sua storia è stata raccontata nel documentario “The Internet’s Own Boy”.

Thompson, Kenneth Lane “Ken”

(New Orleans, Louisiana, USA, 4 febbraio 1943) è un eminente informatico statunitense, universalmente riconosciuto come una delle figure più influenti nella storia dell’informatica moderna. La sua carriera è indissolubilmente legata ai Bell Labs, dove ha svolto gran parte del suo lavoro pionieristico.
La sua realizzazione più celebre è la co-creazione del sistema operativo Unix alla fine degli anni ’60, insieme a Dennis Ritchie. Thompson fu il principale architetto e implementatore iniziale di Unix, sviluppando il kernel, il file system e molti degli strumenti originali. Unix ha rivoluzionato il modo in cui i sistemi operativi sono stati concepiti e costruiti, introducendo concetti di modularità, portabilità e un’interfaccia a riga di comando potente e flessibile. La sua filosofia “piccoli strumenti che fanno una cosa bene e lavorano insieme” è diventata un mantra nello sviluppo software. Unix ha gettato le basi per innumerevoli sistemi operativi successivi, inclusi Linux, macOS e Android, influenzando profondamente l’intero panorama informatico.
Prima di Unix, Thompson sviluppò il linguaggio di programmazione B, un predecessore diretto del linguaggio C di Dennis Ritchie. Il B fu a sua volta influenzato dal linguaggio BCPL e fu utilizzato per scrivere le prime versioni di Unix, dimostrando la sua convinzione nell’uso di linguaggi di alto livello per lo sviluppo di sistemi operativi.
Tra gli altri contributi significativi di Thompson figurano:
* La co-creazione della codifica di caratteri UTF-8 con Rob Pike, un sistema efficiente e ampiamente adottato per rappresentare testo in diverse lingue, diventato lo standard *de facto* per il World Wide Web.
* Il lavoro sui sistemi operativi Plan 9 from Bell Labs e Inferno, che miravano a esplorare nuove architetture di sistema distribuito.
* La partecipazione allo sviluppo del linguaggio di programmazione Go presso Google, dove ha lavorato dopo aver lasciato i Bell Labs.
* La creazione di Belle, un computer per giocare a scacchi che raggiunse livelli di prestazioni eccezionali per l’epoca, vincendo il titolo di campione mondiale di scacchi per computer nel 1983.
Per il suo lavoro su Unix, Thompson ha ricevuto numerosi riconoscimenti. Il più prestigioso è il **Premio Turing** nel 1983, condiviso con Dennis Ritchie, “per il loro sviluppo della teoria generica dei sistemi operativi e in particolare per l’implementazione del sistema operativo UNIX”. Ha anche ricevuto la National Medal of Technology (1998), l’IEEE Richard W. Hamming Medal (1990) e il Japan Prize (2011).
Ken Thompson è ammirato per la sua profonda intuizione tecnica, la sua capacità di creare strumenti semplici ma potenti e la sua visione che ha plasmato l’informatica moderna. La sua eredità continua a vivere in ogni sistema operativo basato su Unix e in ogni riga di codice influenzata dalla sua filosofia di design.

Torvalds, Linus Benedict

(Helsinki, Finlandia, 28 dicembre 1969) è un ingegnere del software finlandese-americano, universalmente riconosciuto come il creatore e principale sviluppatore del kernel Linux. La sua figura è centrale nella storia dell’informatica moderna e del movimento open source.
Cresciuto a Helsinki, Torvalds ha mostrato un precoce interesse per i computer. Ha frequentato l’Università di Helsinki, dove si è laureato in informatica. Fu durante i suoi studi, nel 1991, che iniziò a lavorare a un progetto personale: un nuovo sistema operativo che potesse sfruttare appieno il suo nuovo PC basato su processore Intel 80386. Insoddisfatto di MINIX, un sistema operativo didattico simile a Unix, Torvalds decise di scrivere il proprio kernel da zero.
Il 25 agosto 1991, Torvalds annunciò su un newsgroup Usenet l’inizio del suo progetto, invitando altri a collaborare. Questo approccio aperto e collaborativo, unito alla decisione di rilasciare il codice sorgente sotto la GNU General Public License (GPL), fu un momento spartiacque. Il kernel, che Torvalds inizialmente voleva chiamare “Freax” (una combinazione di “free”, “freak” e “Unix”), fu invece battezzato “Linux” dal suo collega Ari Lemmke, che creò il server FTP per ospitare il progetto.
Sotto la guida di Torvalds, il kernel Linux è cresciuto esponenzialmente, diventando il cuore di innumerevoli sistemi operativi (le cosiddette “distribuzioni Linux“) che alimentano una vasta gamma di dispositivi: dai server che costituiscono la spina dorsale di Internet, ai supercomputer, ai sistemi embedded, ai dispositivi mobili (come Android) e ai desktop.
Torvalds mantiene ancora oggi il ruolo di “benevolent dictator for life” (BDFL) del kernel Linux, supervisionando il processo di sviluppo e prendendo le decisioni finali sull’inclusione delle modifiche al codice. La sua leadership tecnica e la sua filosofia pragmatica hanno plasmato la cultura di sviluppo del kernel, enfatizzando la stabilità, l’efficienza e la compatibilità.
Oltre al kernel Linux, Torvalds è anche il creatore di Git, un sistema di controllo versione distribuito ampiamente utilizzato nello sviluppo software, nato dalla necessità di gestire in modo più efficiente il vasto e complesso sviluppo del kernel Linux.
Per il suo contributo rivoluzionario, Torvalds ha ricevuto numerosi riconoscimenti, tra cui il Millennium Technology Prize (2012, insieme a Shinya Yamanaka) e l’IEEE Computer Society Computer Pioneer Award (2014). Attualmente lavora per la Linux Foundation negli Stati Uniti, dove si è trasferito.
L’eredità di Linus Torvalds va oltre il codice che ha scritto; ha dimostrato il potere della collaborazione open source su scala globale, influenzando profondamente l’industria tecnologica e il modo in cui il software viene sviluppato e distribuito.

Turing, Alan Mathison

(Londra, 23 giugno 1912 – Wilmslow, Regno Unito, 7 giugno 1954) è stato un matematico, logico, crittografo e informatico britannico, ampiamente riconosciuto come uno dei padri fondatori dell’informatica teorica e dell’intelligenza artificiale. La sua vita e il suo lavoro hanno avuto un impatto rivoluzionario sulla scienza e sulla tecnologia del XX secolo.
Turing mostrò fin da giovane un’eccezionale predisposizione per la matematica e la logica. Studiò al King’s College di Cambridge, dove si laureò con lode in matematica. Nel 1936, pubblicò il suo influente saggio “On Computable Numbers, with an Application to the Entscheidungsproblem“, in cui introdusse il concetto della “macchina di Turing“. Questo modello astratto di calcolo fornì la base teorica per lo sviluppo dei computer digitali moderni, dimostrando che una singola macchina universale poteva eseguire qualsiasi calcolo algoritmico.
Durante la Seconda Guerra Mondiale, Turing svolse un ruolo cruciale presso il Government Code and Cypher School a Bletchley Park. Qui, guidò il team che decifrò i codici generati dalla macchina Enigma tedesca, un’impresa che si ritiene abbia abbreviato la guerra di diversi anni e salvato milioni di vite. Il suo lavoro pionieristico nella crittanalisi combinò principi matematici con l’ingegneria, contribuendo allo sviluppo delle prime macchine di decrittazione, come la “bombe” e successivamente il Colossus.
Nel dopoguerra, Turing continuò a innovare. Progettò l‘Automatic Computing Engine (ACE) al National Physical Laboratory, uno dei primi progetti per un computer a programma memorizzato. Successivamente, si trasferì all’Università di Manchester, dove lavorò allo sviluppo del Manchester Mark 1, uno dei primi computer elettronici digitali funzionanti. Nel 1950, pubblicò “Computing Machinery and Intelligence“, un saggio fondamentale in cui propose il celebre “Test di Turing“, un criterio per valutare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano, gettando le basi per il campo dell’intelligenza artificiale. Negli ultimi anni della sua vita, si dedicò anche alla biologia matematica, studiando la morfogenesi.
La sua brillante carriera fu tragicamente interrotta dalla persecuzione per la sua omosessualità, allora considerata un crimine nel Regno Unito. Nel 1952, fu condannato per “grave indecenza” e costretto a sottoporsi a castrazione chimica. Morì nel 1954, all’età di 41 anni, per avvelenamento da cianuro, in circostanze che furono ufficialmente dichiarate suicidio.
Il contributo di Alan Turing è stato riconosciuto postumo con un perdono reale nel 2013 e un’ampia riabilitazione, consolidando il suo status di figura centrale e visionaria nella storia della scienza, della tecnologia e della società.

von Neumann, John

(Budapest, 28 dicembre 1903 – Washington D.C., 8 febbraio 1957) è stato un matematico, fisico, informatico e scienziato multidisciplinare ungherese naturalizzato statunitense, universalmente riconosciuto come una delle menti più brillanti e influenti del XX secolo. La sua straordinaria versatilità e il suo acume hanno lasciato un’impronta indelebile in numerosi campi della scienza e della tecnologia.
Fin dalla giovane età, von Neumann dimostrò un talento prodigioso per la matematica, la fisica e le lingue. Conseguì il dottorato in matematica all’Università di Budapest a soli 22 anni, parallelamente a un diploma in ingegneria chimica al Politecnico di Zurigo. La sua carriera accademica lo portò in Germania, dove contribuì significativamente alla formulazione matematica della meccanica quantistica, prima di emigrare negli Stati Uniti nel 1930, dove divenne uno dei primi membri dell’Institute for Advanced Study di Princeton.
Le sue contribuzioni sono vastissime. In matematica pura, lavorò sulla teoria degli insiemi, l’analisi funzionale, la teoria ergodica e le algebre di operatori. Tuttavia, è nel campo dell’informatica che il suo nome è più celebre. È considerato il padre dell’architettura dei computer moderni, nota come “architettura di von Neumann“, che descrive un modello di calcolatore digitale con un’unità di elaborazione centrale (CPU) e una memoria separata per dati e istruzioni, un concetto fondamentale che ancora oggi è alla base di quasi tutti i computer. Contribuì alla progettazione di macchine come l’ENIAC, l’EDVAC e l’IAS machine, e fu un pioniere nello sviluppo degli automi cellulari e della teoria degli automi auto-riproducenti.
Un altro campo in cui von Neumann fu un innovatore è la teoria dei giochi. Insieme a Oskar Morgenstern, pubblicò nel 1944 “Theory of Games and Economic Behavior“, un’opera che ha gettato le basi matematiche per lo studio delle strategie in situazioni di conflitto e cooperazione, rivoluzionando l’economia, la scienza politica e la biologia.
Durante la Seconda Guerra Mondiale, fu coinvolto nel Progetto Manhattan, contribuendo al calcolo delle implosioni nucleari e alla progettazione della bomba atomica. Successivamente, partecipò allo sviluppo della bomba all’idrogeno.
La sua capacità di spaziare tra discipline apparentemente distanti, applicando rigorosi metodi matematici a problemi complessi in fisica, economia, informatica e biologia, lo rende una figura unica nella storia della scienza. La sua visione ha plasmato il mondo digitale e scientifico in cui viviamo, consolidando la sua reputazione come uno dei più grandi pensatori del XX secolo.

Weizenbaum, Joseph

(Berlino, 8 gennaio 1923 – Berlino, 5 marzo 2008) è stato un eminente informatico tedesco-americano, pioniere dell’intelligenza artificiale e figura centrale nello sviluppo dell’etica informatica. Nato a Berlino, emigrò negli Stati Uniti nel 1935 per sfuggire alle persecuzioni naziste. Conseguì il dottorato in matematica presso la Wayne State University nel 1964 e divenne professore al Massachusetts Institute of Technology (MIT).
La sua fama è indissolubilmente legata alla creazione di ELIZA, un programma di elaborazione del linguaggio naturale sviluppato tra il 1964 e il 1966. ELIZA simulava una conversazione con un terapeuta rogeriano, rispondendo a frasi chiave con domande o riformulazioni. Sebbene Weizenbaum l’avesse concepito come un semplice esperimento per dimostrare la superficialità della comunicazione uomo-macchina, rimase profondamente turbato dalla reazione delle persone, che spesso attribuivano a ELIZA una comprensione e un’empatia umane reali, e persino da alcuni psichiatri che ne suggerirono l’uso clinico.
Questa esperienza fu un punto di svolta per Weizenbaum, spingendolo a diventare uno dei più acuti critici dell’intelligenza artificiale e dell’uso acritico della tecnologia. Sviluppò una profonda preoccupazione per l’eccessiva fiducia riposta nei computer e per il potenziale disumanizzante della tecnologia, soprattutto quando applicata a domini che richiedono giudizio umano, saggezza ed empatia.
Le sue riflessioni culminarono nel saggio fondamentale Computer Power and Human Reason: From Judgment to Calculation (1976). In quest’opera, Weizenbaum argomentò contro la riduzione della ragione umana a mera calcolabilità e mise in guardia contro i pericoli di delegare decisioni etiche e morali alle macchine. Sostenne che esistono compiti che i computer non dovrebbero mai svolgere, indipendentemente dalla loro capacità tecnica, perché ciò sminuirebbe la dignità umana e la responsabilità morale.
Fino alla sua morte, Weizenbaum rimase un convinto sostenitore di un approccio etico e responsabile all’informatica, influenzando generazioni di scienziati e filosofi. Il suo lavoro ha posto le basi per il campo dell’etica dell’IA e continua a essere una voce cruciale nel dibattito contemporaneo sul ruolo della tecnologia nella società.

Wiener, Norbert

(Columbia, Missouri, 26 novembre 1894 – Stoccolma, 18 marzo 1964) è stato un matematico e filosofo statunitense, universalmente riconosciuto come il fondatore della cibernetica. La sua opera ha gettato le basi per la comprensione dei sistemi di controllo e comunicazione, influenzando profondamente lo sviluppo dell’informatica, dell’intelligenza artificiale e di numerose altre discipline scientifiche e ingegneristiche.
Bambino prodigio, Wiener dimostrò un’intelligenza eccezionale fin dalla tenera età. Conseguì il Bachelor of Arts in matematica a soli 14 anni presso il Tufts College e il dottorato di ricerca in logica matematica a 18 anni all’Università di Harvard. Successivamente, studiò in Europa con figure del calibro di Bertrand Russell e David Hilbert, ampliando i suoi orizzonti intellettuali dalla matematica pura alla filosofia e alla fisica.
La sua carriera accademica fu prevalentemente legata al Massachusetts Institute of Technology (MIT), dove divenne professore di matematica. Durante la Seconda Guerra Mondiale, Wiener fu coinvolto in ricerche cruciali per lo sviluppo di sistemi di puntamento antiaereo automatici. Fu in questo contesto che maturò l’intuizione fondamentale che i principi di feedback e controllo, osservabili nei sistemi biologici, potessero essere applicati anche alle macchine.
Questa intuizione culminò nella pubblicazione del suo capolavoro, “Cybernetics: Or Control and Communication in the Animal and the Machine” (1948). In quest’opera, Wiener coniò il termine “cibernetica” (dal greco kybernētēs, “timoniere” o “governatore”) per descrivere lo studio interdisciplinare del controllo e della comunicazione negli animali e nelle macchine. La cibernetica proponeva un quadro unificato per analizzare fenomeni apparentemente diversi, come il funzionamento del cervello umano, i sistemi nervosi, i servomeccanismi e i computer digitali, evidenziando l’importanza dei cicli di feedback per l’autoregolazione e l’adattamento.
Oltre alla cibernetica, Wiener diede contributi significativi in diverse aree della matematica, tra cui il moto browniano (con la costruzione della misura di Wiener), l’analisi armonica generalizzata, la teoria del potenziale e la teoria dell’informazione. Le sue idee sulla predizione e il filtraggio dei segnali stocastici furono fondamentali per l’ingegneria delle comunicazioni.
Wiener fu anche un pensatore profondamente consapevole delle implicazioni etiche e sociali della tecnologia. Espresse preoccupazioni riguardo all’automazione e al suo impatto sul lavoro umano, nonché sui pericoli di un uso irresponsabile dell’intelligenza artificiale e dei sistemi di controllo. La sua visione lungimirante lo portò a riflettere sulla relazione tra uomo e macchina, sulla natura dell’informazione e sulla responsabilità degli scienziati.
La sua eredità è immensa. La cibernetica ha fornito il linguaggio e i concetti per lo sviluppo dell’informatica moderna, della robotica, dell’intelligenza artificiale, delle neuroscienze computazionali e di molti aspetti della teoria dei sistemi. Norbert Wiener rimane una figura centrale nella storia della scienza e della tecnologia, un pioniere che ha ridefinito il nostro modo di comprendere il controllo, la comunicazione e l’interazione tra organismi e artefatti.

Wirth, Nicklaus

(Winterthur, Svizzera, 15 febbraio 1934 – Zurigo, Svizzera, 1 gennaio 2024)è stato un eminente informatico svizzero, riconosciuto a livello mondiale per il suo profondo impatto sulla progettazione dei linguaggi di programmazione e sull’ingegneria del software. Ha ricoperto la cattedra di Informatica presso il Politecnico Federale di Zurigo (ETH Zurich) dal 1968 al 1999, dove ha formato generazioni di informatici.
La sua carriera è stata caratterizzata dalla creazione di linguaggi di programmazione che enfatizzavano la semplicità, l’efficienza, la chiarezza e la programmazione strutturata. Tra i suoi contributi più significativi figurano:
* Algol W: Una revisione influente di ALGOL 60, sviluppata durante il suo periodo a Stanford, che introdusse concetti chiave e miglioramenti pratici.
* Pascal: Il suo linguaggio più famoso, progettato nei primi anni ’70. Pascal divenne uno standard de facto per l’insegnamento della programmazione strutturata nelle università di tutto il mondo, grazie alla sua sintassi chiara, alla forte tipizzazione e alla facilità d’uso. Ha avuto un’enorme influenza sulla didattica dell’informatica e sulla diffusione dei principi di buona ingegneria del software.
* Modula-2: Sviluppato negli anni ’70 come successore di Pascal, Modula-2 introdusse il concetto di moduli per la programmazione modulare e la gestione della concorrenza, rendendolo particolarmente adatto per la programmazione di sistemi e applicazioni embedded.
* Oberon: Creato alla fine degli anni ’80, Oberon rappresentava un ritorno alla semplicità radicale, integrando un linguaggio di programmazione, un sistema operativo e un ambiente di sviluppo in un unico sistema compatto ed efficiente.
Wirth non si limitò alla progettazione di linguaggi, ma fu anche un pioniere nello sviluppo di compilatori e sistemi hardware/software integrati. Esempi notevoli includono il computer personale Lilith (1978), un’innovativa workstation con un’interfaccia grafica, e il sistema Ceres (1987), che implementava il sistema Oberon.
Per i suoi contributi fondamentali all’informatica, in particolare per lo sviluppo di linguaggi innovativi come Pascal, Modula-2 e Oberon, Wirth è stato insignito del prestigioso **Premio Turing** nel 1984, spesso definito il “Premio Nobel dell’informatica”.
La filosofia di Wirth, incentrata sulla chiarezza, l’eleganza e la minimizzazione della complessità, ha lasciato un’impronta duratura sull’ingegneria del software e sulla didattica dell’informatica, influenzando generazioni di programmatori e progettisti di sistemi. La sua eredità continua a essere rilevante nel dibattito sulla progettazione di software robusto ed efficiente.

Wozniak, Steve

(San Jose, California, 11 agosto 1950) è un ingegnere informatico, inventore e filantropo statunitense, universalmente riconosciuto come co-fondatore di Apple Inc. e figura pionieristica nello sviluppo del personal computer.
Fin dalla giovane età, Wozniak ha dimostrato una straordinaria attitudine per l’elettronica e l’ingegneria hardware. La sua passione lo ha portato a incontrare Steve Jobs nel 1971, con il quale avrebbe poi fondato Apple Computer Company (ora Apple Inc.) nel 1976.
Wozniak è il genio tecnico dietro i primi prodotti di Apple. Ha progettato e costruito da solo l’Apple I, il primo computer dell’azienda, assemblato nel garage dei Jobs. Il suo contributo più significativo, tuttavia, è l’Apple II, lanciato nel 1977. Questo computer è stato uno dei primi microcomputer di grande successo, distinguendosi per la sua architettura aperta, la capacità di visualizzare grafica a colori e l’innovativo controller per floppy disk, tutti frutti del suo ingegno. L’Apple II ha giocato un ruolo cruciale nella democratizzazione dell’informatica, rendendo i computer accessibili a un pubblico più ampio e gettando le basi per l’industria dei personal computer.
La filosofia di design di Wozniak era incentrata sull’efficienza e sull’eleganza, creando circuiti complessi con il minor numero possibile di componenti, il che rendeva i suoi progetti sia potenti che economici da produrre. Mentre Jobs si concentrava sulla visione di mercato, sul design estetico e sul marketing, Wozniak era il cervello tecnico che trasformava le idee in realtà funzionali, occupandosi sia dell’hardware che di gran parte del software iniziale.
Dopo aver lasciato Apple nel 1985, Wozniak ha perseguito una varietà di interessi. Ha fondato CL 9, un’azienda che ha sviluppato il primo telecomando universale programmabile. Ha anche dedicato gran parte del suo tempo alla filantropia, in particolare nel campo dell’educazione, finanziando progetti scolastastici e insegnando informatica.
Steve Wozniak rimane una figura iconica e rispettata nel mondo della tecnologia, celebrato per il suo approccio pragmatico, la sua incrollabile passione per l’ingegneria e il suo ruolo fondamentale nella rivoluzione del personal computer. La sua eredità è quella di un innovatore che ha reso la tecnologia complessa accessibile e divertente per milioni di persone.

Zuse, Konrad

(Berlino, 22 giugno 1910 – Hünfeld, Germania, 18 dicembre 1995) Ingegnere e pioniere dell’informatica tedesco, Konrad Zuse è ampiamente riconosciuto come il creatore del primo computer funzionale e programmabile al mondo. Le sue innovazioni, sviluppate in gran parte in isolamento durante la Seconda Guerra Mondiale, hanno gettato le basi per l’era digitale.
Nato a Berlino, Zuse mostrò fin da giovane un’attitudine per l’ingegneria e la meccanica. Dopo aver conseguito la laurea in ingegneria civile, si dedicò autonomamente alla costruzione di macchine calcolatrici, spinto dalla necessità di automatizzare i complessi calcoli strutturali.
Tra il 1936 e il 1938, Zuse realizzò lo Z1, un calcolatore meccanico binario programmabile, sebbene non del tutto affidabile a causa delle sue componenti di precisione limitata. Questo progetto, finanziato in parte dai suoi genitori, pose le basi per i suoi successivi e più ambiziosi sviluppi.
Il suo capolavoro fu lo Z3, completato nel 1941. Questo fu il primo computer elettromeccanico digitale completamente automatico, programmabile e funzionante al mondo. Lo Z3 utilizzava la logica binaria e l’aritmetica in virgola mobile, caratteristiche avanzate per l’epoca. Sebbene sviluppato in un contesto bellico e distrutto dai bombardamenti alleati nel 1943, lo Z3 è considerato il primo computer Turing-completo operativo, anticipando di diversi anni macchine simili sviluppate altrove.
Nel 1945, Zuse progettò il Plankalkül, il primo linguaggio di programmazione di alto livello della storia. Sebbene non venne implementato fino a decenni dopo, la sua concezione dimostra la visione profetica di Zuse sull’astrazione e la formalizzazione nella programmazione.
Dopo la guerra, Zuse continuò il suo lavoro, fondando la Zuse KG, l’azienda che produsse lo Z4, il primo computer commerciale al mondo, consegnato nel 1950. La sua azienda divenne un attore significativo nel mercato dei computer in Germania fino alla sua acquisizione da parte di Siemens negli anni ’60.
Il contributo di Konrad Zuse è fondamentale per la storia dell’informatica. Le sue invenzioni, spesso realizzate con risorse limitate e in un contesto che ne ostacolò la diffusione e il riconoscimento immediato, hanno gettato le basi per l’era digitale, rendendolo una figura centrale tra i padri fondatori del computer moderno.