La storia dell’autofocus affonda le sue radici negli studi di misurazione della distanza condotti nel secondo dopoguerra, prevalentemente per scopi militari e industriali. È possibile far risalire i primi concetti a sistemi di telemetria sonar sviluppati negli anni Sessanta, ma la vera svolta avvenne con l’introduzione commerciale della Polaroid SX-70 Sonar nel 1978. Il sistema Sonar AF di Polaroid, ideato in collaborazione con la divisione Honeywell Applied Research, impiegava ultrasuoni a circa 40 kHz. Un piccolo trasduttore emetteva un impulso sonoro verso il soggetto; il tempo di ritorno dell’eco veniva misurato per calcolare la distanza con una precisione di circa ±5 cm entro un range di 70 cm. Questi dati venivano trasferiti a un algoritmo dedicato che guidava un motore passo-passo all’interno della lente per spostare il gruppo di messa a fuoco.
Parallelamente, già nel 1977 la Konica C35 AF segnò un’altra pietra miliare applicando la tecnologia infrarossa nel campo consumer. Un LED IR a 950 nm generava un fascio luminoso verso il soggetto; la luce riflessa veniva captata da un sensore IR CMOS montato sul frontale della lente. Il sistema sfruttava la triangolazione geometrica tra emettitore e sensore per calcolare la distanza. Questa tecnica garantiva tempi di risposta di pochi millisecondi e funzionava indipendentemente dalle condizioni di illuminazione visibile, seppure sensibile a superfici trasparenti o riflettenti.
Nei decenni successivi, l’incremento di potenza di calcolo e la miniaturizzazione dei componenti spinsero alla realizzazione di sistemi ibridi. Dai primi sensori Time-of-Flight per smartphone, in cui LED laser IR di bassa potenza emettevano impulsi misurati da fotodiodi ad altissima velocità, alla contemporanea integrazione di pixel a rilevamento di fase sul sensore d’immagine, il percorso evolutivo dell’autofocus testimonia l’interazione tra ingegneria ottica, elettronica e informatica. Oggi l’età dell’AF si misura in decine di milioni di scatti, fra corpi professionali e mirrorless consumer, capaci di messa a fuoco in frazioni di secondo e tracking continuo anche su soggetti in rapido movimento.
Principi di funzionamento generale
L’autofocus si basa su tre componenti fondamentali: sensore di misura, unità di controllo e motore di azionamento. Il sensore elabora informazioni di distanza o di nitidezza; l’unità di controllo traduce tali informazioni in un segnale elettrico; il motore agisce sugli elementi ottici interni per regolare la lunghezza focale con precisione micrometrica.
Nei sistemi attivi, il sensore attua misurazioni dirette di distanza tramite tecniche di Time-of-Flight o triangolazione. Un emettitore (sonoro, infrarosso o laser) propaga un impulso; la riflessione dal soggetto ritorna a un ricevitore che registra il tempo di volo o l’angolo di ritorno. Il vantaggio principale è l’indipendenza dal contrasto dell’immagine, che consente funzionamento al buio. Lo svantaggio risiede in possibili errori su superfici irregolari o trasparenti.
Nei sistemi passivi, si sfrutta l’analisi diretta dell’immagine proiettata sul sensore: nel Contrast Detection (CDAF) l’algoritmo cerca il punto di massima variazione di luminosità tra pixel adiacenti. Alla massima variazione corrisponde la massima nitidezza. In Phase Detection (PDAF), la luce viene suddivisa in due fasci che creano immagini leggermente sfasate; misurando lo spostamento relativo tra le due immagini si rilevano conseguentemente direzione e quantità di fuoco necessari. Questo metodo è estremamente rapido, poiché fornisce direttamente il vettore di correzione.
I moderni sistemi ibridi combinano CDAF e PDAF: in situazioni di contrasto elevato il PDAF agisce come primario, passando al CDAF quando il primo segnala incertezza, specialmente in luce scarsa o su soggetti a basso contrasto cromatico. Grazie alla potenza di calcolo dei processori d’immagine dedicati, il sistema può cambiare modalità in tempo reale, garantendo affidabilità in tutte le condizioni.
Autofocus attivo: tecnologie Time-of-Flight e triangolazione
Nei primissimi modelli, il sistema sonar emetteva ultrasuoni mediante un trasduttore piezoelettrico. L’impulso sonoro si propagava nell’aria alla velocità di 343 m/s; la misurazione del tempo di volo, diviso per due, forniva la distanza soggetto-fotocamera. Nel dettaglio, l’impiego di un oscillatore a cristallo garantiva la stabilità della frequenza, mentre un filtro passa-basso sul segnale in ricezione eliminava il rumore ambiente entro la banda centrata a 40 kHz.
I sistemi a infrarossi adottano LED o laser a infrarosso vicino: un fascio collimato è proiettato sul soggetto; l’angolo di ritorno viene misurato da un piccolo fotodiodo CMOS con lente di raccolta. La triangolazione sfrutta la geometria fissa tra emettitore e sensore, calcolando la distanza con formula d = b * f / (x1 – x2), dove b è la baseline, f la lunghezza focale della lente aggiuntiva e (x1 – x2) lo spostamento misurato sul sensore.
Le implementazioni ToF digitali più moderne usano spegnimenti rapidi in nanosecondi di diodi laser e conteggio fotonico su sensori SPAD (Single-Photon Avalanche Diode). Questi sistemi raggiungono risoluzioni sub-millimetriche fino a 10 metri di distanza, con frequenze di 100–200 kHz. Pur essendo energicamente più esigenti, sono fondamentali in applicazioni industriali di sicurezza e navigazione autonoma.
Autofocus passivo: rilevamento di fase e contrasto
Il Phase Detection nelle DSLR sfrutta uno specchio secondario che devia parte del raggio luminoso verso un sensore AF dedicato. Ogni punto AF è costituito da due micro-lenti che formano due immagini su due ranghi di fotodiodi. Quando le immagini coincidono, l’errore di fuoco è zero. Lo sfasamento viene misurato come differenza di fase tra i due segnali, con risoluzione di frazioni di pixel, e convertito in comando direzionale: avvicinare o allontanare il piano focale.
Il Contrast Detection utilizza il sensore d’immagine principale senza componenti meccanici aggiuntive. L’algoritmo esegue rapide misurazioni di contrasto su piccole aree ROI, regolando iterativamente la messa a fuoco fino a trovare il picco massimo. Pur essendo più lento e soggetto a fenomeni di overshoot in presenza di scarsa luce, questo metodo permette implementazioni economiche nelle fotocamere mirrorless entry-level.
Sensori AF: design, punti di messa a fuoco e sensibilità
I moderni sensori AF dedicati, specialmente nei corpi pro DSLR, integrano oltre 150 punti AF. I punti a croce leggono variazioni di contrasto su due assi, migliorando il tracking in situazioni dinamiche. I punti dual-mode rilevano sia fase che contrasto, commutando automaticamente in base alla necessità.
La dimensione del pixel AF sul sensore, solitamente attorno ai 7–10 µm, influenza la risoluzione angolare e la sensibilità. La sensibilità minima di -3 EV garantita da sensori avanzati permette messa a fuoco anche in condizioni di luce equivalente a quella di una luna piena. L’efficienza quantica superiore al 70% dei fotodiodi BSI-CMOS contribuisce a ridurre il rumore e a migliorare la rapidità di lettura.
Motori di azionamento: USM, STM, VCM e screw drive
Nei sistemi screw drive, un motore DC nel corpo macchina, collegato tramite una vite senza fine all’anello di messa a fuoco dell’obiettivo, trasmette la rotazione. Questi sistemi, pur economici, risultano rumorosi e meno precisi.
Gli USM (Ultrasonic Motor), comuni nelle ottiche Canon e Nikon, sfruttano un cristallo piezoelettrico che, applicando un campo elettrico ad alta frequenza (20–40 kHz), genera un’onda ultrasonica convertita in moto rotatorio tramite attrito controllato. Il risultato è un azionamento rapido (<100 ms per lo spostamento completo), silenzioso e con risposta immediata.
I Voice Coil Motor operano con un principio simile agli altoparlanti: un avvolgimento alimentato da corrente costante crea un campo magnetico che interagisce con un magnete permanente, producendo uno spostamento lineare. L’assenza di ingranaggi meccanici elimina l’attrito e il backlash, garantendo un posizionamento micrometrico ideale per il video.
Gli STM (Stepper Motor), adottati da Canon nelle ottiche per video, ruotano in passi precisi, offrendo transizioni ancora più fluide. La modulazione a impulsi PWM consente variare la velocità senza scatti.
Algoritmi di controllo e predizione del tracking
L’unità di controllo dell’AF integra un DSP (Digital Signal Processor) che esegue analisi in tempo reale: riceve il segnale dal sensore, applica filtri passa-banda per ridurre il rumore, calcola la direzione e la velocità di spostamento necessarie, e invia comandi PWM al motore. nei sistemi AF-C avanzati, è implementata una predizione balistica che stima traiettoria, velocità e accelerazione del soggetto, basandosi su modelli Kaiser-Bessel. L’estensione AI usa reti neurali convoluzionali per riconoscere soggetti (volti, occhi, veicoli) e assegnare priorità ai singoli punti AF, garantendo un tracking intelligente.
Autofocus in DSLR vs mirrorless: evoluzioni a confronto
Le DSLR mantengono un sensore AF dedicato, mentre le mirrorless sfruttano il sensore d’immagine principale con pixel ibridi. Canon ha sviluppato il Dual Pixel CMOS AF, in cui ogni pixel contiene due fotodiodi separati, abilitando simultaneamente rilevamento di fase e acquisizione immagine. Sony ha adottato BSI-CMOS con pixel a rilevamento di fase integrato, con un’area AF che copre fino al 90% del frame.
Le mirrorless offrono vantaggi di velocità, ridotto ingombro meccanico e live view continuo senza commutazione tra specchio alzato e abbassato. Ciò si traduce in un AF continuo fluido durante registrazione video, con transizioni di fuoco cinematografiche impeccabili.
Applicazioni speciali e varianti tecnologiche
In microscopia, l’AF è cruciale per mantenere il piano di messa a fuoco su campioni vivi, spesso mediante sensori capaci di compensare variazioni termiche e vibrazioni. Nei sistemi industriali, unità ToF e PDAF ibridi consentono ispezioni ad alta velocità su linee di produzione, individuando difetti con precisione sub-millimetrica.
Nel settore cinetec viene richiesta una messa a fuoco remota via cavo con encoder di precisione e motori brushless, per garantire scatti silenziosi e movimenti continui. I droni integrano AF sonar e ToF per il posizionamento in volo e il mantenimento del soggetto al centro del fotogramma, mentre i robot fotografici impiegano algoritmi SLAM per combinare autofocus e mappatura 3D.