Risultati da 1 a 6 di 6

Discussione: Le nanotecnologie

  1. #1
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660

    Le nanotecnologie

    Salve amici,
    il 29 dicembre 1959 il celebre fisico americano Richard Feynman, uno dei padri della QED (elettrodinamica quantistica), tenne un famoso discorso presso il Caltech (California Institute of Technology), intitolato "There's plenty of room at the bottom" ("C'è un sacco di spazio laggiù in fondo"), nel quale predisse che l'uomo, di lì a poco tempo, sarebbe stato in grado di manipolare la materia a livello di singolo atomo, dando così l'avvio al dibattito "teorico" su quel "new field of Physics", cioè quel nuovo campo della Fisica, che è conosciuto con il nome di "nanotecnologie" (termine coniato da Drexler nel 1975).

    Cito un breve brano tratto da quella conferenza: "Non ho paura di affrontare la domanda finale cioè se alla fine, nel grande futuro che ci aspetta, saremo in grado di disporre gli atomi nel modo che vogliamo; proprio gli atomi, laggiù in fondo ! Che cosa accadrebbe se potessimo disporre gli atomi uno per uno come vogliamo ? (in posizioni chimicamente stabili, ovviamente)".
    Per chi fosse interessato all'intero intervento di R. Feynman, ecco la trascrizione (in lingua originale, in italiano non l'ho trovato):
    http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=13&cad=rja& uact=8&ved=0CHIQFjAM&url=http://www.phy.pku.edu.cn/~qhcao/resources/class/QM/Feynman%27s-Talk.pdf&ei=VfFmVY-3E8adsAGDr4CYDw&usg=AFQjCNERHATHKjJ1Ya91CDladuGatO N89A&sig2=bmyXCEfRDdbEIvK_Qw3OlA
    Ma cosa studiano le nanoscienze ?
    Le nanoscienze studiano le proprietà della materia con dimensioni comprese tra 1 e 100 nanometri (ricordo che 1nm = 10^(-9)m), allo scopo di comprendere come essa si comporti e possa interagire con altri sistemi materiali, dando luogo a sistemi più complessi e con proprietà nuove.
    Nel campo dell'elettronica, ad esempio, le nanotecnologie hanno consentito la costruzione di componenti elettronici sempre più piccoli, da cui si sono sviluppati i chip, nei quali occorre monitorare la crescita di strati di materiale a spessore nanometrico, e i microprocessori.
    In biologia, grazie soprattutto alla disponibilità di nuovi strumenti microscopici come i microscopi a scansione ad effetto tunnel (STM), è stato possibile analizzare le proprietà di biomolecole come il DNA e le proteine (studi che hanno portato allo sviluppo della nano-bioelettronica, cioè all'utilizzo di nanosistemi biologici in applicazioni di nanoelettronica).
    In medicina, o meglio in nanomedicina, le nanoparticelle possono essere efficacemente utilizzate come particelle-vettore in grado di curare alcune patologie tumorali.
    Sulle leggi della fisica quantistica sono basati i diodi laser (utilizzati nella propagazione "guidata" nelle fibre ottiche in quanto producono luce "coerente", a differenza dei LED che producono, invece, luce "incoerente"), dispositivi optoelettronici progettati per emettere luce ad una determinata frequenza.
    Infine, grazie alla chimica "supramolecolare", sono state costruite delle nanomacchine "molecolari" in grado di compiere, quando opportunamente stimolate, movimenti nanometrici.
    Chimica supramolecolare - Wikipedia
    Un esempio in questo campo è il cosiddetto "ascensore molecolare", ossia un sistema supramolecolare in cui, variando il pH della soluzione, è possibile far spostare la "piattaforma" molecolare verso il basso o verso l'alto, a distanze nanometriche.
    L'Alambicco n°5 - Maggio 2011
    In ambito più specificamente teorico, le nanotecnologie hanno permesso lo studio di nuovi "scenari", in cui la materia si comporta in modo strano.
    Si è notato, ad esempio, che il comportamento della materia in due dimensioni è nettamente diverso da quello in tre dimensioni: elettroni che vengono "confinati" su di un piano e sottoposti a campi magnetici si muovono in maniera assolutamente coordinata, come se "danzassero" all'unisono.
    I fisici della materia condensata, in particolare Landau, hanno dato un nome a queste particelle interagenti, le hanno chiamate quasi-particelle (con una carica che è un terzo della carica elementare): l'elettrone, che si trova nello stato "entangled" (sull'entanglement scriverò un apposito articolo), è una quasi-particella.
    Orbitone, una nuova "quasi-particella" - Le Scienze
    Per concludere questa breve introduzione, possiamo senz'altro affermare che le nanoscienze costituiscono il punto in cui la ricerca pura, la fisica, la chimica e la biologia, e la ricerca industriale, nel campo della scienza dei materiali, della medicina, dell'energetica e così via, convergono.
    Lo sviluppo delle conoscenze nell'ambito delle nanoscienze e delle nanotecnologie è inevitabilmente legato all'integrazione di diverse competenze in diversi settori del sapere scientifico e tecnologico.
    Buona lettura


    P.S. Da un punto di vista strettamente teorico, le tecnologie alla nanoscala riguardano processi basati sul "confinamento" quantistico, governato dal principio di indeterminazione di Heisenberg: all'interno di un sistema materiale composto di circa 1000 atomi si verificano fenomeni di confinamento quantico.
    A quella scala, da qualche nanometro fino ad arrivare alle dimensioni del singolo atomo (0.1nm), le proprietà del sistema dipendono fortemente dalle dimensioni.
    Una particella, ad esempio, può diventare trasparente, senza alterare la composizione chimica ma agendo soltanto sulle dimensioni. Non è un argomento di facile comprensione per chi non ha familiarità con la fisica quantistica ma ne riparleremo
    http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&cad=rja&u act=8&ved=0CDUQFjAD&url=http://fds.mate.polimi.it/file/1/File/12SCUOLAPOLITECNICO/libassi.pdf&ei=OvVmVc7EBoussAGXy4CgBQ&usg=AFQjCNF5 Zgl_eyuU375Utemaubw63u2Oeg&sig2=SR5ihSHqbpNom-gGRikQhQ
    (breve introduzione alle nanotecnologie)


  2. #2
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    Vorrei svolgere alcune importanti considerazioni sulle nanotecnologie: ritengo che il settore della nanomedicina sia uno tra i più "fecondi" nell'ambito delle applicazioni nanotecnologiche ma è necessario, prima di prevedere l'utilizzo "in massa" delle nanoparticelle e dei nanomateriali in campo clinico, comprendere a fondo le interazioni, inevitabilmente complesse dato che dipendono anche dalle piccole dimensioni di queste sostanze, dei nanosistemi con i tessuti biologici e con l'ambiente.
    Certo, è vero anche che, nel passaggio dalla teoria alla produzione di un prototipo funzionante, il passo è spesso molto lungo: mi viene in mente l'esempio del "diodo molecolare", che venne ideato negli anni Cinquanta e il cui prototipo è stato costruito solo negli anni Novanta.
    http://www.galileonet.it/2015/05/un-diodo-...ngola-molecola/
    Attualmente la ricerca è orientata su una metodologia che usa un approccio "bottom-up" (non è mia intenzione discutere, al momento, dei "fullereni" e dei "nanotubi"), che consiste nella realizzazione di strutture nanometriche assemblando chimicamente componenti a dimensioni nanometriche.
    Si intuisce allora quanto, in questo caso, sia importante lo studio della Natura per comprenderne i diversi gradi di organizzazione, dal più semplice, come le basi del DNA o le catene di amminoacidi, al più complesso, come quello cellulare.
    D'altronde, alla nanoscala le leggi della fisica quantistica diventano predominanti e ciò mi porta naturalmente a parlare di un settore che, a mio giudizio, rappresenta uno dei campi di maggior sviluppo, attuale e futuro, delle applicazioni nanotecnologiche: quello della computazione quantistica. Il qubit, l'unità base dell'informazione, può trovarsi, come è noto, in una "sovrapposizione" dello stato 0 e dello stato 1.
    Usando i qubit è possibile risolvere alcuni problemi, come ad esempio la fattorizzazione di un numero primo, importante in crittografia, in modo molto più rapido rispetto ai tradizionali computer elettronici.
    Il rovescio della medaglia è che il sistema, interagendo con l'ambiente circostante, fa perdere ai qubit il loro comportamento, che è "intrinsecamente" quantistico. Si tratta di un problema molto complesso e molti studiosi ritengono che la soluzione potrebbe provenire proprio dai nanomateriali.
    Buona lettura

    P.S. Feynman ha mostrato grande intuito nel concepire l'impostazione top-down (cioè partire da sistemi macroscopici e arrivare alla realizzazione di strutture nanometriche), attualmente la metodologia più consolidata, che ha portato a risultati "fecondi", come ad es. la costruzione di testine per dischi rigidi, basata sul fenomeno della "magnetoresistenza gigante" (Premio Nobel per la Fisica a Fert e Grunberg nel 2007), ma conveniamo tutti, credo, che egli non abbia ricoperto un ruolo di primo piano nello sviluppo delle nanoscienze.
    http://www.ilsussidiario.net/News/emmeciqu...-FISICA/215873/
    Per ciò che riguarda la manipolazione dei singoli atomi, essa è stata resa possibile dall'invenzione del microscopio a scansione ad effetto tunnel (Premio Nobel per la Fisica a Binnig e a Rohrer nel 1986), strumento largamente utilizzato nella fisica delle superfici, mentre il microscopio a forza atomica (AFM) è per lo più usato in biologia e topografia.
    Archived web site
    Infine ritengo che il panorama che le nanoscienze e le nanotecnologie hanno aperto sia, in prospettiva futura, immenso e non è difficile prevedere che, entro questo secolo, ci saranno sviluppi rilevanti sia nell'ambito della conoscenza scientifica "pura" sia sotto il profilo tecnologico, che "pervaderà" tutti i settori produttivi, a partire dalla medicina e dall'elettronica fino ad arrivare all'ingegneria energetica e ambientale. E' necessario, però, un approccio "interdisciplinare" alla conoscenza delle nanoscienze, che coinvolga competenze di fisica e chimica di base, scienza dei materiali, elettronica e così via.
    Pertanto suggerisco, a chi desiderasse lavorare nel campo delle nanoscienze e delle nanotecnologie, di seguire un corso di laurea scientifico, in modo da acquisire una formazione di base solida in uno specifico settore, e poi specializzarsi, magari a partire già dalla scelta della tesi di laurea, nel campo delle nanoscienze.
    In seguito sarà possibile frequentare uno specifico dottorato di ricerca presso un centro di ricerca, sia in Italia che all'estero.

  3. #3
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    Nel 1945, a soli vent'anni, Jean Bartik, da poco diplomata in Matematica all'Università del Missouri, venne assunta, con la qualifica professionale di "Computer", presso i laboratori di ricerca balistica dell'esercito degli Stati Uniti a Philadelphia, insieme ad altre giovani matematiche, per compilare le "tabelle di fuoco" (o "tavole di tiro") dell'artiglieria che venivano utilizzate per i calcoli delle traiettorie dei proiettili.
    Jean Bartik - Wikipedia
    L'anno seguente, nel 1946, l'esercito propose a Jean e ad altre cinque matematiche (tra cui Antonelli, Teitelbaum e Spence) di entrare a far parte di un progetto segreto, denominato "Project PX": si trattava dell'ENIAC (Electronic Numerical Integrator And Calculator), il primo calcolatore di tipo "general purpose" completamente elettronico della storia.
    Jean e le altre colleghe del suo gruppo diventarono così le prime grandi "pioniere" della programmazione.
    http://thenexttech.startupitalia.eu/6427-2...mmazione-storia
    Per poter funzionare, l'ENIAC aveva bisogno di 200kW di potenza (la prima volta che fu attivato ci fu un "blackout" di corrente in alcuni quartieri di Philadelphia, anche se probabilmente si tratta di una leggenda metropolitana) e il "codice" non veniva inserito tramite una tastiera, come accade oggi, ma agendo manualmente su migliaia di interruttori.
    La caratteristica fondamentale dell'ENIAC era la sua velocità: le traiettorie "stimate" duravano, per la prima volta, più del tempo di calcolo impiegato.
    L'ENIAC impiegava 18000 valvole termoioniche, ancora oggi utilizzate negli impianti amplificati ad alta fedeltà, e un numero enorme di resistori e condensatori; l'intera struttura occupava circa 180 m^2, l'equivalente della superficie di un grande appartamento.
    ENIAC - Wikipedia
    Un anno più tardi, nel 1947, i tre fisici americani Shockley, Bardeen e Brattain (premio Nobel per la Fisica nel 1956) scoprirono l'effetto transistor, dando inizio alla tecnologia dei semiconduttori che ha reso possibile la miniaturizzazione e l'integrazione, sempre più spinta, dei componenti elettronici.
    http://www.mater.unimib.it/it/didattica/sc...walter-brattain
    Il linguaggio "parlato" da un microprocessore è quello binario, sia che si tratti di fare dei calcoli che di ascoltare musica; c'è bisogno dunque di un interruttore elettronico in grado di assumere alternativamente il bit 0 e il bit 1.
    La funzione di memorizzare "fisicamente" un bit può essere svolta da un transistor.
    Infatti, in base alla tensione applicata ad un contatto, detto di "Gate", è possibile far passare la corrente tra altri due contatti, il "Source" e il "Drain": se la tensione al Gate "blocca" il passaggio della corrente, il transistor memorizza il bit 0, se la tensione lascia passare la corrente, il transistor memorizza il bit 1.
    Nel 1958 l'ingegnere americano Jack Kilby (premio Nobel per la Fisica nel 2000) mostrò che i componenti di un circuito (transistor, resistenze e condensatori) potevano essere "integrati" su un unico "wafer" di materiale semiconduttore: nasce così il "circuito integrato", progenitore dei primi microprocessori programmabili, realizzati nel 1970.
    Jack St. Clair Kilby - Wikipedia
    La curva di crescita del numero di transistor integrati su un singolo chip viene chiamata "legge di Moore" (Gordon Moore, uno dei fondatori della Intel, la ipotizzò nel 1965): la complessità e quindi anche le prestazioni di un circuito integrato, in termini di numero di transistor integrati sul singolo chip, raddoppiano ogni 18 mesi circa.
    In un processore moderno sono integrati miliardi di transistor e tale integrazione è alla base della cosiddetta ICT (Information and Communication Technology), che rappresenta l'insieme delle tecnologie atte all'elaborazione e allo scambio di informazioni che conducono a "scenari" completamente nuovi nell'ambito della tecnologia digitale.
    https://it.wikipedia.org/wiki/Tecnologie_d...a_comunicazione
    Buona lettura

  4. #4
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LE BANDE DI ENERGIA
    ------------------------------

    Nel modello atomico a livelli energetici discreti (detti orbitali s, p, d, f) a ciascun elettrone è assegnato un ben determinato valore di energia, quello del livello energetico cui appartiene.
    E' importante ricordare che in un atomo vi sono solo determinati livelli di energia ed un elettrone può assumere soltanto quei valori di energia e non altri.
    Un elettrone può passare da un livello a bassa energia ad uno ad alta energia solo se gli viene fornita un'energia pari alla differenza tra i due livelli.
    Quando un elettrone è "saltato" ad un livello più alto, dopo un po' torna al livello di partenza cedendo l'energia in eccesso sotto forma di energia elettromagnetica (fotoni).
    La relazione tra il salto energetico e la frequenza della radiazione emessa è ben evidenziata nella equazione di Planck: E=h*f (h=6.625*10^(-34) J*s è la costante di Planck - f è la frequenza in Hz). Tale modello atomico è valido solo se l'atomo è isolato, ossia lontano da altri atomi con cui potrebbe interagire.
    Nel caso, ad esempio, di un reticolo cristallino, in presenza di altri atomi vicini, i singoli livelli energetici, proprio per effetto dell'interazione, si "scompongono" in più livelli con valori di energia poco diversi, formando delle "bande di energia".
    Ciò accade perché gli elettroni interagenti non possono avere caratteristiche perfettamente uguali.
    Ricordo che in base al principio di esclusione di Pauli due elettroni non possono occupare lo stesso stato, in particolare se sono vicini non possono avere la stessa energia.
    Al posto del singolo livello energetico "subentra", per così dire, una gamma di valori permessi che va sotto il nome di "banda di energia".
    Tenendo presente che in un solido gli atomi sono circa 10^22/cm^3, possiamo considerare i nuovi livelli energetici condivisi talmente densi da formare un intervallo di energie permesse praticamente continuo.
    In riferimento alle bande energetiche più esterne, quella con energia minore si chiama "banda di valenza", quella con energia maggiore viene denominata "banda di conduzione".
    Un elettrone che si trova nella banda di valenza rimane vincolato all'atomo, possedendo meno energia, e può essere utilizzato per formare legami covalenti mentre un elettrone che si trova nella banda di conduzione, non essendo vincolato all'atomo, è libero di muoversi, dando luogo alla corrente elettrica.
    Infatti l'occupazione delle bande determina la conducibilità, ossia la maggiore o minore facilità con cui un materiale può condurre la corrente.
    Anche nel caso delle bande di energia, un elettrone può saltare dalla banda di valenza in quella di conduzione, a patto che gli venga fornita energia sufficiente a compiere il salto.
    Tra la banda di valenza e la banda di conduzione esiste una gamma di valori energetici "proibiti", denominata, appunto, "banda proibita" (in inglese "Energy Gap").
    Il "gap" rappresenta la quantità di energia che un elettrone deve "assorbire" per passare dalla banda di valenza a quella di conduzione.
    In alcuni casi il gap è molto piccolo e addirittura, nel caso di materiali conduttori, la banda di valenza è parzialmente sovrapposta a quella di conduzione, per cui gli elettroni possono passare facilmente in conduzione, già a temperatura ambiente.
    Nei materiali isolanti, al contrario, il gap è molto alto e pochissimi elettroni riescono, a temperatura ambiente, a passare in conduzione.
    Nei semiconduttori il gap energetico non è né molto alto né molto basso per cui un certo numero di elettroni si trova nella banda di conduzione e tale numero aumenta sensibilmente all'aumentare della temperatura.
    Ad esempio, il germanio (Ge) ha un gap di 0.67 eV, il silicio (Si) ha un gap di 1.14 eV.
    Il valore del gap non è influenzato molto dalla temperatura, ad esempio il silicio passa da un gap di 1.16 eV a 0 K ad un gap di 1.12 eV a 300 K.
    Buona lettura

    P.S. Nel caso dei semiconduttori c'è da precisare che, già a temperatura ambiente, gli elettroni ricavano energia, per passare in banda di conduzione, anche dalle vibrazioni del reticolo cristallino, attraverso urti tra gli ioni del reticolo e gli elettroni stessi. La probabilità di questo fenomeno diminuisce esponenzialmente con la temperatura in quanto le vibrazioni del reticolo sono meno energetiche (occorre anche tenere presente che più il gap è ampio, maggiore è l'energia richiesta per superarlo e minore è il numero di elettroni che si trasferiscono per agitazione termica).
    Una volta passati in banda di conduzione, gli elettroni possono essere accelerati da un campo elettrico, come accade nei metalli.
    Struttura elettronica a bande - Wikipedia

  5. #5
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    IL DROGAGGIO
    ---------------------

    I semiconduttori sono elementi chimici tetravalenti, appartenenti al gruppo IV del sistema periodico degli elementi, i cui atomi, tramite legami covalenti, compongono una struttura cristallina a forma tetraedrica, ossia ciascun atomo è circondato da altri quattro, in modo da formare l'ottetto elettronico.
    Il primo semiconduttore utilizzato in elettronica è stato il germanio (Ge), presto rimpiazzato dal silicio (Si), il quale ha un "range" di temperature di lavoro più elevato (fino a 200°C, rispetto ai 90°C-100°C del germanio). I semiconduttori puri, cioè non drogati, si definiscono "intrinseci".
    Essendo il legame covalente tra atomi di silicio molto debole, già a temperatura ambiente (circa 25°C) alcuni elettroni possiedono energia sufficiente per rompere il legame e passare dalla banda di valenza a quella di conduzione. Gli elettroni nella banda di conduzione possono muoversi liberamente all'interno del cristallo, sotto l'azione di un campo elettrico esterno.
    Quindi la rottura di un legame covalente produce da un lato la liberazione di un elettrone, che ha carica negativa, dall'altro la formazione di uno ione positivo, privo dell'elettrone che si è liberato, che si comporta come una "lacuna".
    Applicando una d.d.p. alle estremità di una lamina di silicio puro (intrinseco), a causa del campo elettrico gli elettroni di conduzione si dirigono verso il polo positivo del generatore; d'altra parte anche gli elettroni di valenza, sollecitati dalla forza del campo elettrico, vanno verso il polo positivo e possono occupare le lacune lasciate libere dagli elettroni che hanno rotto i legami covalenti. Il movimento delle lacune può essere interpretato come uno spostamento di cariche positive verso il polo negativo.
    Riassumendo, in un semiconduttore intrinseco la corrente è dovuta a due diversi tipi di "portatori di carica": gli elettroni della banda di conduzione e le lacune, il cui movimento "apparente" è in realtà dovuto allo spostamento degli elettroni di valenza.
    Il verso "convenzionale" della corrente, ancora oggi adottato, coincide proprio con quello delle lacune.
    Ora c'è da puntualizzare un fatto: a differenza di ciò che accade nei metalli, nei semiconduttori intrinseci la resistività diminuisce all'aumentare della temperatura, perché i portatori di carica aumentano man mano che la temperatura cresce.
    Per la costruzione dei dispositivi elettronici, però, non vengono utilizzati semiconduttori intrinseci, la loro struttura cristallina viene modificata attraverso una tecnica detta "drogaggio" (doping), che consiste nell'introduzione di "impurità" (in percentuale molto piccola, di solito qualche parte per milione), ossia di atomi di specie diversa, nel cristallo semiconduttore.
    Nel drogaggio di tipo N si inseriscono nel cristallo atomi di sostanze pentavalenti (ad es. il fosforo (P)). Il drogante pentavalente si chiama "donatore" (o "donore").
    Rispetto ai quattro elettroni che formano altrettanti legami covalenti col silicio, rimane un elettrone in eccesso, libero per la conduzione, per cui la resistività del semiconduttore drogato N è inferiore rispetto a quella intrinseca (ma sufficientemente grande per l'utilizzo nella micro e nella nanoelettronica).
    Nel drogaggio di tipo P, invece, si immettono nel cristallo atomi di sostanze trivalenti (ad es. l'alluminio (Al)). Il drogante trivalente si chiama "accettore".
    Si forma così una lacuna che in pratica è una carica positiva disponibile per la conduzione, per cui la resistività del cristallo drogato P è, anche in questo caso, inferiore a quella intrinseca.
    Gli elettroni nel semiconduttore drogato N e le lacune nel semiconduttore drogato P vengono denominate "cariche maggioritarie".
    Viceversa, le "cariche minoritarie" sono gli elettroni nel semiconduttore drogato P e le lacune nel semiconduttore drogato N.
    La conducibilità dovuta alle cariche maggioritarie aumenta all'aumentare della concentrazione del drogante, mentre la conducibilità dovuta alle cariche minoritarie aumenta all'aumentare della temperatura.
    Da notare che sia nei casi di drogaggio P che in quelli di drogaggio N il cristallo è sempre neutro elettricamente, il numero totale di elettroni è pari a quello dei protoni che si trovano all'interno dei nuclei atomici.
    Cosa accade ora se, disponendo di un cristallo di silicio puro, realizziamo due zone (sulla stessa lamina), una drogata P e l'altra N ?
    Si forma la cosiddetta "giunzione P-N". Gli elettroni maggioritari della zona N "migrano" verso la zona P, le lacune maggioritarie dalla zona P vanno verso la zona N, si ha così una "corrente di diffusione". Lo spostamento di tali cariche fa nascere una "barriera di potenziale", la quale esercita una forza sui portatori, di conseguenza si genera una "corrente di drift" (deriva), con verso opposto a quello di diffusione.
    Per una certa temperatura si arriva ad una situazione di equilibrio (dinamico) in cui la corrente di diffusione e quella di drift hanno la stessa intensità ma verso opposto.
    Per il silicio, ad esempio, la tensione sulla giunzione vale, in condizioni di equilibrio, circa 0.6V (si chiama tensione di built-in).
    A ridosso della giunzione i portatori N si "combinano" con i portatori P, si forma così una zona di "svuotamento" (depletion layer), detta anche "zona di carica spaziale".
    Tale zona di depletion si comporta in pratica da dielettrico ed è responsabile degli effetti "parassiti" (capacitivi) della giunzione.
    Per concludere, diciamo che il funzionamento dei dispositivi a semiconduttore (diodi, transistor, ecc.) si basa proprio su quei fenomeni che accadono nella regione di svuotamento, a ridosso delle giunzioni.
    Buona lettura
    Semiconduttore - Wikipedia
    Drogaggio - Wikipedia

    P.S. Con opportuni processi tecnologici, in particolare con la tecnica fotolitografica (di cui parleremo in seguito), il drogaggio può essere effettuato con precisione sub-micrometrica.
    In questo modo è possibile costruire dispositivi nanoelettronici come, ad esempio, i transistor ad effetto di campo (FET).


  6. #6
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    I TRANSISTOR FET
    ------------------------

    I transistor FET (Field Effect Transistor) sono dispositivi elettronici attivi con cui si possono realizzare amplificatori.
    A differenza di ciò che accade nei BJT (transistor bipolari a giunzione), in cui la corrente sulla base controlla la corrente di collettore (quest'ultima Hfe volte maggiore), nei FET il controllo delle cariche che scorrono nel circuito d'uscita avviene per effetto di un campo elettrico generato dalla tensione in ingresso; in questo modo il FET non richiede alcuna corrente al segnale di ingresso, l'impedenza d'ingresso è praticamente infinita e ciò lo rende particolarmente adatto al trattamento di segnali molto deboli (motivo per cui viene utilizzato come stadio d'ingresso di vari dispositivi). L'effetto di campo può essere ottenuto secondo due diverse modalità:
    1) nei JFET (FET a giunzione) l'effetto di campo viene realizzato mediante una giunzione PN polarizzata negativamente;
    2) negli IGFET (FET a Gate isolato) l'effetto di campo è ottenuto controllando lo scorrimento delle cariche all'interno di un semiconduttore drogato, tramite un elettrodo separato dal semiconduttore con uno strato isolante di biossido di silicio (SiO2). I MOSFET fanno parte della famiglia degli IGFET.
    Un MOSFET (Metal Oxide Silicon FET) a canale N è strutturato nel seguente modo: 1) c'è un substrato di silicio drogato P nel quale sono state ricavate due zone drogate N a cui corrispondono i due elettrodi di Source e di Drain; 2) lo strato isolante di SiO2 separa "fisicamente" l'elettrodo metallico del Gate dal substrato di silicio; 3) il canale N che collega le zone N del Source e del Drain può essere "modulato" per effetto del campo elettrico generato dalla tensione del Gate.
    Ora, nel caso del transistor NMOS (MOSFET a canale N), da me illustrato, il semiconduttore che forma il substrato è, come abbiamo visto, drogato P, per cui saranno presenti alcuni portatori minoritari N; applicando un potenziale positivo al Gate, i portatori N (minoritari) verranno attratti verso la zona sottostante il Gate stesso, formando il canale N e permettendo la conduzione elettrica tra il Source e il Drain.
    I MOSFET a canale N e a canale P sono di due tipi: 1) tipo enhancement (a riempimento), in cui nel canale non vi sono portatori se il Gate non è polarizzato; 2) tipo depletion (a svuotamento), in cui viene realizzato un canale di portatori, in fase costruttiva.
    In quest'ultimo caso (MOSFET depletion) la corrente di Drain Id aumenta se il potenziale del Gate è di segno opposto a quello del canale e diminuisce se il potenziale del Gate è di segno concorde con quello del canale.
    Ciò significa che i MOSFET depletion possono essere usati senza polarizzazione perché sono in grado di funzionare con tensioni di Gate sia in aumento che in diminuzione rispetto al potenziale di riferimento.
    I transistor MOSFET costituiscono i mattoni fondamentali dell'elettronica digitale.
    MOSFET - Wikipedia
    Con i MOSFET realizzati in tecnologia "Silicon Gate" è possibile sostituire un resistore con un MOSFET, come accade negli invertitori logici (porte NOT), inoltre la possibilità di utilizzare MOSFET in tecnologia "complementare" (a canale P e a canale N) ha consentito la realizzazione, in campo digitale, della famiglia logica CMOS, che sfrutta le proprietà di questi dispositivi.
    In tecnologia CMOS si possono realizzare anche applicazioni lineari, come ad es. gli amplificatori invertenti, che danno una buona potenza d'uscita e non richiedono alcuna corrente al segnale in ingresso. Attualmente si sta cercando di migliorare alcune caratteristiche dei transistor FET tramite l'utilizzazione di nuovi materiali.
    Nei transistor High-k si utilizza un materiale ad alta costante dielettrica in modo tale da isolare il Gate mediante uno strato di materiale estremamente sottile. Faccio notare che la classificazione delle odierne architetture costruttive si basa sulla larghezza del canale di conduzione, un transistor Intel moderno è fabbricato a tecnologia 14 nm.
    Altri settori di ricerca mirano a sostituire l'attuale tecnologia di progettazione dei transistor con un'altra completamente diversa, basata sull'utilizzo di nanotubi di carbonio come canale di conduzione.
    Buona lettura


    P.S. Nel settembre 2013 sul New York Times venne diffusa la notizia della realizzazione del primo computer che utilizza un processore costruito a partire da nanotubi di carbonio:
    https://www.vashlabs.com/consulenza-informatica/community/7-blog/67-114-cpu-multitasking-ai-nanotubi-di-carbonio,-addio-silicio.html

Tag per Questa Discussione

Segnalibri

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •