Risultati da 1 a 11 di 11

Discussione: Cibernetica e controlli automatici

  1. #1
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660

    Cibernetica e controlli automatici

    INTRODUZIONE ALLA CIBERNETICA (prima parte)
    --------------------------------------------------------

    Nel 1942 a New York si tenne un convegno, sul tema dell'inibizione cerebrale (una delle funzioni cognitive che usiamo quotidianamente, in base alla quale il nostro cervello è in grado di correggere determinati comportamenti), in cui emerse la possibilità di uno scambio di informazioni tra esperti nel campo della fisiologia (medica) umana e tecnici nel settore dei meccanismi di controllo.
    Pochi anni dopo (nel 1948 pubblicò il libro "Cybernetics") il matematico americano Norbert Wiener, uno dei massimi esponenti di questa nuova tendenza, determinò la nascita di un nuovo "filone" scientifico che chiamò "cibernetica", nome di origine greca che ha il significato di "arte di pilotare".
    Wiener nacque nel 1894 a Columbia, nel Missouri, e morì nel 1964 a Stoccolma. Fin da piccolo si dimostrò un bambino prodigio in campo matematico, ottenne il dottorato in matematica a 18 anni, in seguito studiò con Bertrand Russell e David Hilbert. Durante la seconda guerra mondiale fu impegnato (insieme a Julian Bigelow, altro grande pioniere della cibernetica e ingegnere delle telecomunicazioni) nella realizzazione di un sistema di puntamento automatico per armamenti anti-aerei e fu proprio in quel periodo che studiò la possibilità di applicazione della teoria dei sistemi di controllo automatico anche agli esseri viventi.
    Dopo la guerra dedicò tutte le sue energie alla diffusione di questa nuova disciplina scientifica che egli denominò, appunto, cibernetica, scienza (dei sistemi) che studia la realizzazione e il funzionamento di macchine elettroniche automatiche, in grado di simulare le funzionalità di un organismo vivente e in particolare del cervello umano.
    Dagli studi sul sistema di puntamento che stava progettando emerse chiaramente la necessità di "adeguare", in modo rapido e automatico, la traiettoria del proiettile alla posizione dell'aereo, che varia casualmente, mediante un meccanismo di retroazione (feedback), similmente a quanto accade in alcuni comportamenti umani.
    Per questo motivo in cibernetica è fondamentale la comprensione dei meccanismi di trasmissione di informazioni tra organi e cervello ed è anche il motivo per cui la cibernetica "abbraccia" un vasto campo di conoscenze, che va dalla biologia alla fisica, dall'informatica all'ingegneria, ecc.
    Proprio perché in definitiva si tratta di una disciplina di equipe, uno dei limiti della cibernetica è quello dello scambio di informazioni tra ricercatori di discipline eterogenee, spesso poco "inclini" a divulgare i loro risultati o che divulgano dati incomprensibili e quindi inutilizzabili (ricordo, a tal proposito, che la medicina non è una scienza, perlomeno non una scienza "esatta").
    In tutto ciò l'elettronica ha giocato, e tuttora gioca, un ruolo fondamentale, con le sue capacità tecniche sempre più avanzate: si è passati da "automi" complessi ma privi di intelligenza a robot "umanoidi" in grado di controllare i propri movimenti o di giocare a scacchi, grazie all'utilizzo di micro-controller automatici.
    La teoria dell'informazione è parimenti importante, poiché tutti i sistemi di controllo richiedono la trasmissione di informazioni.
    Poche persone conoscono la macchina di Turing, i calcolatori di Von Neumann e la teoria di Shannon, ancora meno persone conoscono Wiener e la cibernetica ma se oggi esistono dispositivi intelligenti (e, in ultima analisi, i computer con cui "navighiamo"), appartenenti a quel ramo applicativo della cibernetica che va sotto il nome di "Intelligenza Artificiale", lo si deve soprattutto al nostro grande "eroe oscuro" dell'era dell'informazione: Norbert Wiener.
    A presto.



    P.S. http://people.na.infn.it/~murano/Abi...t%20Wiener.pdf (approfondimento sulla vita di N. Wiener)
    Ultima modifica di Kriss2; 26-07-2019 alle 17.54.43

  2. #2
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    INTRODUZIONE ALLA CIBERNETICA (seconda parte)
    -----------------------------------------------------------

    La cibernetica si occupa di sistemi automatici in grado di utilizzare e trasmettere informazioni allo scopo di raggiungere un auto-controllo e ciò avviene per mezzo di meccanismi di "feedback" (ossia di retroazione).
    I feedback possono essere di due tipi: positivi e negativi.
    Nel caso degli esseri viventi si possono manifestare entrambi i tipi di feedback, positivi e negativi, perciò questi tipi di sistemi vengono detti "a retroazione integrale".
    Cosa sono i meccanismi di feedback ?
    Si tratta di meccanismi di controllo automatico che consentono ad una "macchina" di auto-regolarsi, durante il suo funzionamento, in modo da auto-correggere gli errori rispetto al "programma" prestabilito in fase di progetto.
    Il feedback negativo tende a "stabilizzare" il sistema in caso di disturbi esterni al sistema stesso; il feedback positivo tende invece a creare instabilità nel sistema, in seguito a perturbazioni esterne, per cui il sistema reagirà creando un nuovo stato di equilibrio (diverso da quello precedente).
    I sistemi naturali e in particolare i sistemi viventi sono già dotati di meccanismi di auto-regolazione che si sono evoluti nel tempo per mezzo del nostro programma genetico.
    Qual è dunque la "visione" cibernetica della realtà ?
    Il "modello" cibernetico vede un organismo vivente come una macchina "naturale" (meccanica e in seguito anche termica) dotata di un programma e di meccanismi di regolazione per feedback negativo, interagenti tra loro allo scopo di mantenere lo stato stazionario (una sorta di "omeostasi") del sistema.
    E' evidente che in questo "quadro" le interazioni tra acidi nucleici e proteine rivestono un ruolo fondamentale: il DNA, costituito da una sequenza di geni, è il "ricettario" che spiega come si preparano le proteine, l'RNA è il "cuoco" che legge la ricetta, prepara gli ingredienti e li cucina (cioè assembla gli amminoacidi in proteine).
    Il programma genetico è, quindi, scritto nel DNA e c'è un flusso di informazioni che va dal DNA alle proteine (il famoso "dogma centrale della biologia" di Francis Crick, di cui ho parlato in altri articoli).
    Le proteine costituiscono i "factotum" delle cellule: hanno funzioni strutturali (cheratina), ormonali (insulina), di accelerazione di reazioni chimiche (enzimi), di trasporto (emoglobina), contrattili (actina) e immunitarie (anticorpi).
    In sintesi, la cibernetica ha avuto il merito di fornire un'interpretazione più avanzata e razionale di fenomeni quali il metabolismo (come processo automatico) e la riproduzione (come processo ricorsivo).
    Non solo: cambiamenti ambientali che producono un allontanamento dal punto di equilibrio possono "innescare" meccanismi di feedback positivi tali da comportare fenomeni evolutivi, cioè la ricerca di nuovi punti di equilibrio del sistema.
    A presto.


    P.S. In seguito vedremo alcuni esempi di retroazione positiva e negativa in ambito elettronico.
    Ultima modifica di Kriss2; 26-07-2019 alle 17.55.21

  3. #3
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    INTRODUZIONE ALLA CIBERNETICA (terza parte)
    --------------------------------------------------------

    Come abbiamo visto, i segnali, le informazioni, la comunicazione e la retroazione (feedback) sono concetti "centrali" in cibernetica e in tutti i sistemi, "naturali" (ad es. gli organismi viventi) e artificiali (apparecchiature, reti di computer, ecc.).
    Dunque gli elementi fondamentali di questa scienza sono tre: la retroazione (feedback), la teoria dell'informazione e la teoria dei sistemi di controllo automatico (in questi ultimi tempi l'intelligenza artificiale si sta rivelando un campo applicativo piuttosto "fecondo").
    In questo modello il concetto di "sistema" è di grandissima rilevanza: la cibernetica è una scienza di "controllo" il cui scopo è il pilotaggio (l'etimo greco "kybernetiké", come abbiamo detto all'inizio, significa "pilotare") di un sistema.
    Lo stesso Wiener la definì "scienza della comunicazione e del controllo" non solo di macchinari (attraverso il computer o altri dispositivi elettronici) ma anche dei rapporti tra sistemi artificiali e sistemi biologici (per quanto riguarda questi ultimi, importante è lo studio del cervello e del sistema nervoso, incluse le loro interazioni).
    Cos'è un sistema ? Genericamente parlando, ci si riferisce ad un insieme di elementi interagenti tra loro.
    Su qualche dizionario viene riportata una definizione più precisa: un sistema è un insieme di elementi o di strumenti, coordinati tra loro al fine di svolgere una certa funzione.
    Da questa definizione "traspaiono" tre elementi fondamentali: 1) il sistema come "insieme" di parti (dette "componenti") diverse tra loro; 2) l'interazione tra questi componenti (cioè scambi di materia, energia e informazione); 3) la "finalizzazione" del sistema alla realizzazione di una certa funzione, ossia lo scopo per cui è stato progettato (è inutile evidenziare il fatto che quest'ultimo aspetto è di grandissima importanza).
    Gli scambi di materia, energia e informazione, in particolare, costituiscono una "comunicazione" a cui gli elementi del sistema possono reagire cambiando il loro stato e/o modificando il loro comportamento.
    In conclusione possiamo dire che la teoria dei sistemi studia un sistema qualsiasi, inteso come un insieme di entità, reali o astratte, e quindi rappresenta un potentissimo strumento di formalizzazione della realtà attraverso leggi generali che, in definitiva, tendono a ricondurre la conoscenza ad una visione unitaria.
    Avremo modo di approfondire questi aspetti molto presto.
    Buona lettura.
    Ultima modifica di Kriss2; 26-07-2019 alle 17.55.48

  4. #4
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LA TEORIA DELL'INFORMAZIONE (parte prima)
    ----------------------------------------------------

    Nelle applicazioni elettroniche ed informatiche il concetto di informazione, cioè quell'elemento che ci permette di venire a conoscenza di qualcosa, assume un rilievo importante.
    In particolare la teoria dell'informazione, elaborata da Claud Shannon dopo la seconda guerra mondiale, studia dal punto di vista matematico le problematiche inerenti al trattamento dell'informazione stessa.
    Dall'informazione si passa, in modo del tutto naturale, al concetto di comunicazione, che tratta la trasmissione di informazioni a chi non ne è a conoscenza e trova il suo rapido sviluppo nelle applicazioni elettroniche.
    Proprio grazie alla possibilità di trasformare un contenuto informativo, attraverso un opportuno trasduttore, dalla sua forma fisica alla forma elettrica (cioè ad un segnale), si sono sviluppate quelle "potenzialità" elettroniche così decisive per la società attuale.
    Dalle comunicazioni si passa alle telecomunicazioni, ossia alle comunicazioni a distanza ("tele" dal greco significa "a distanza"), di informazioni di tipo elettrico.
    Questo passaggio va chiarito meglio: il concetto di informazione è legato a quello di segnale elettrico, ciò implica che saranno sempre presenti un trasduttore, in grado di trasformare la grandezza fisica (un segnale sonoro, video, ecc.) in un potenziale elettrico e, nel caso del ricevente, un attuatore per ricevere l'informazione.
    I segnali possono essere di tipo diverso (analogici o digitali) ma tutti possono essere rappresentati, attraverso l'analisi di Fourier, tramite la somma di infinite componenti sinusoidali (chiamate "armoniche").
    Alcuni problemi in un processo di trasmissione riguardano l'attenuazione, diversa a seconda della frequenza, del segnale durante la sua propagazione entro un "canale" (il mezzo in cui il segnale si propaga sotto forma di corrente elettrica "modulata"), e i disturbi (cioè segnali indesiderati): all'atto pratico dovremo introdurre degli amplificatori e dei filtri per "compensare" le distorsioni di fase e d'ampiezza del segnale originario.
    Come ho avuto modo di illustrare nel mio thread dedicato alle telecomunicazioni, a cui rimando per gli approfondimenti, tutte le linee di comunicazione fungono da filtro, introducendo un'attenuazione che non è la stessa alle varie frequenze e distorcendo il segnale.
    I diversi canali (le fibre ottiche, i cavi coassiali, il doppino telefonico, l'etere, ecc.) mostrano comportamenti differenti nei riguardi della trasmissione dei segnali; di volta in volta verrà scelto il canale più adatto al tipo di trasmissione richiesto.
    A presto.

    P.S. Per "distorsione" s'intende un'operazione che viene eseguita sul segnale per motivi tecnici (può essere eseguita anche in senso inverso nel senso che il segnale può tornare alle condizioni originarie, alla fine del canale).
    Invece il "rumore" è una perturbazione imprevedibile, quindi è di tipo statistico, e non si può eliminare del tutto, si cerca di minimizzarla.
    Ultima modifica di Kriss2; 26-07-2019 alle 17.56.14

  5. #5
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    TEORIA DELL'INFORMAZIONE (seconda parte)
    --------------------------------------------------------------------------

    Sui parametri che regolano lo scambio di informazioni e sui canali di comunicazione ho già discusso (vedi sotto).
    A meno che non venga esplicitamente richiesto, l'argomento non sarà ulteriormente sviluppato.
    Sul concetto di entropia informativa mi limiterò a poche osservazioni: come sappiamo, l'entropia è legata al 2° principio della termodinamica (esprime il grado di disordine di un sistema fisico).
    In modo elementare possiamo dire che l'entropia, in un sistema in cui l'energia rimane costante, aumenta sempre, in quanto i sistemi tendono a passare da uno stato d'ordine ad uno stato di "confusione" (entropia, dal greco, ha proprio il significato di "confusione").
    Non è una tendenza dell'Universo verso il disordine, si tratta di una tendenza verso stati più "probabili".
    Dell'entropia si possono dare diverse definizioni, qui utilizzeremo il concetto di entropia "statistica" di Boltzmann, che esprime l'entropia in funzione della probabilità termodinamica dello stato di un sistema, ossia il suo grado di disordine microscopico (inteso come relazioni tra le informazioni sullo stato molecolare e quelle macroscopiche, come ad es. la pressione e la temperatura, sul sistema stesso).
    Chiamando P la probabilità termodinamica, l'entropia termodinamica è S=k*ln(P) (formula scolpita sulla tomba di Boltzmann), in cui k è la costante di Boltzmann.
    Andando a confrontare l'equazione di Boltzmann con la formula relativa alla quantità d'informazione (Q=logn(1/P), in cui logn è il logaritmo in base n), ci accorgiamo che esiste una correlazione tra l'entropia e il grado di incertezza di un'informazione. Shannon è stato proprio colui che ha fornito la definizione di entropia informativa, legata al concetto di valore medio della quantità d'informazione.
    Il merito di Shannon non è stato, però, soltanto quello di aver fornito le formule per calcolare la misura del grado di incertezza di un certo messaggio ma anche quello di aver scoperto la relazione tra la capacità di un canale di trasmissione e la velocità di trasmissione di una determinata sorgente.
    In pratica, ciò che è abbastanza intuitivo, se un canale sopporta una certa velocità massima di trasmissione, la sorgente dovrà trasmettere il messaggio ad una velocità inferiore rispetto alla capacità del canale.
    Ciascun canale ha una certa banda passante, da cui deriva la massima frequenza del segnale che lo attraversa.
    Ora, la velocità di trasmissione è pari all'inverso del tempo di bit (cioè del tempo richiesto per trasmettere un bit), per cui essa sarà il doppio della frequenza massima del segnale: v=2*fmax.
    Essendo la frequenza massima corrispondente alla banda passante del canale e la velocità di trasmissione corrispondente alla capacità del canale, possiamo scrivere la formula: C=2*B (C è la capacità del canale e B è la sua banda passante).
    Ciò significa che la capacità di un canale di trasmissione è pari al doppio della banda passante del canale stesso.
    A presto.


    P.S. Dal punto di vista cibernetico, affinché gli stimoli percepiti dai nostri organi sensoriali possano tramutarsi in conoscenza, è essenziale il ruolo del nostro cervello che interviene attraverso un processo di trasformazione degli eventi esterni in eventi interni; solo in questo modo è possibile, in base ai meccanismi descritti precedentemente, generare una comunicazione, nella quale la personalità di chi riceve il messaggio è fondamentale.
    Ribadisco che soltanto in base alle percezioni ricevute dai nostri occhi e dalle nostre orecchie potremo dire se si tratta di una trasmissione "buona" o di una "cattiva".
    Al fine di una "buona" codifica intervengono non solo i "bit discreti" ma anche le funzionalità degli organismi viventi.

    P.P.S. La teoria dell'informazione, sviluppata da Shannon nel 1948, è un ramo della matematica che si occupa di studiare, dal punto di vista quantitativo, i problemi relativi alla trasmissione delle informazioni.
    Shannon stabilì che tutti i segnali e i disturbi possono essere descritti solo in termini probabilistici.
    In parole povere, è possibile ridurre la presenza di errori in un canale disturbato ma non è possibile aumentare indefinitamente la velocità di trasmissione, non potendo quest'ultima superare la capacità del canale di trasmissione stesso.
    Si tratta di un limite invalicabile.

    Ho già avuto modo, in ripetute occasioni, di definire la misura dell'informazione: un messaggio è composto da un certo numero di cifre binarie (i bit) che possono assumere due soli valori (1 e 0).
    Ora, ricevere un determinato valore di un bit (1 o 0) significa rimuovere l'incertezza che si aveva prima di riceverlo (in quanto il suo valore non era conosciuto).
    Essendo i due valori equiprobabili (hanno la stessa probabilità di essere emessi e ricevuti), la probabilità è pari al 50% (cioè 0.5).
    Dunque avremo che la probabilità di una cifra binaria equiprobabile è P=1/2.
    In generale la probabilità di una cifra che può assumere n valori diversi equiprobabili è P=1/n.
    La quantità di informazione di una cifra binaria equiprobabile è pari a 1 bit: Q=1 bit.
    La quantità d'informazione legata ad un certo elemento di probabilità P è: Q=log2 (1/P) (logaritmo in base 2 di 1/P).
    La quantità d'informazione di una cifra che assume n valori diversi equiprobabili è Q=log2 (1/P)=log2 (n).
    Per quanto riguarda un messaggio composto, ad esempio, da 8 bit (m=8), le combinazioni possibili sono 256 (2^8=256), a ciascuna delle quali possiamo associare un carattere (ad es. un codice ASCII).
    Ebbene, la probabilità di un carattere equiprobabile composto da 8 bit è P=1/(2^8)=1/256=3.9*10^(-3).
    La quantità d'informazione di un messaggio equiprobabile (composto da 8 bit) è Q=log2 (2^8)=8 bit.
    Sul concetto di entropia di un'informazione non mi soffermerò, per ora (ne ho parlato sopra).
    Ultima modifica di Kriss2; 26-07-2019 alle 17.56.45

  6. #6
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    TEORIA DELL'INFORMAZIONE (parte terza)
    --------------------------------------------------------------------

    Viene definita "distorsione" l'alterazione della forma di un segnale; il segnale si deforma rispetto alla sua originaria struttura.
    Ciò implica l'aggiunta di nuove "armoniche" a quelle pre-esistenti, per cui il segnale è diverso da quello di partenza (senza distorsione).
    Come analizzato da Fourier, il segnale distorto è formato da una "fondamentale" che rappresenta il segnale non distorto e da un insieme di altre armoniche che descrivono l'effetto della distorsione.
    Una delle cause che provocano la distorsione è rappresentata dalla non linearità dei componenti attivi, quali diodi e transistor.
    E' possibile misurare un tasso di distorsione armonica (THD) come il rapporto tra il valore efficace delle armoniche (di distorsione) e il valore efficace della fondamentale: THD=(Veff armoniche)/(Veff fondamentale).
    Le distorsioni sono di due tipi: di ampiezza e di fase.
    La distorsione di ampiezza è causata dal fatto che in un circuito l'amplificazione non è costante rispetto alle variazioni di frequenza e ciò implica che le componenti del segnale siano amplificate in modo diverso.
    La distorsione di fase è dovuta alla presenza di elementi reattivi che comporta una fase variabile del segnale (in pratica le diverse armoniche si propagano con tempi diversi, ossia sono sfasate tra loro).
    Il rumore è un segnale variabile, sia in ampiezza che in frequenza, in modo casuale che, sommandosi al segnale utile, produce una modifica dell'informazione del segnale originario.
    Il rumore è dovuto a diversi fattori, interni e/o esterni (disturbi) al sistema, di cui intendo citare: 1) il ripple (il "ronzio") dell'alimentatore, l'ondulazione residua che il filtro non riesce ad eliminare; 2) il rumore atmosferico (ad es. i temporali); 3) il rumore cosmico, dovuto alle radiazioni provenienti da corpi celesti.
    Per quanto riguarda la trasmissione dei dati, particolarmente importanti sono il rumore termico e i rumori impulsivi che agiscono sui singoli bit informativi, variandone il valore.
    Ecco spiegato il motivo per cui le trasmissioni digitali vengono accompagnate da sistemi di rilevamento degli errori basati sulla "ridondanza" dei bit trasmessi.
    I cosiddetti "codici a controllo dell'errore" possono andare dal semplice controllo di parità, in grado di individuare solamente se l'errore c'è o meno, fino a codici molto più sofisticati, come ad es. il codice Hamming, che consentono di individuare la posizione del bit errato all'interno di una parola errata.
    A presto.
    Ultima modifica di Kriss2; 26-07-2019 alle 17.57.07

  7. #7
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LA RETROAZIONE (introduzione)
    -------------------------------------

    Nella progettazione di un automatismo nell'ambito di un processo produttivo non è facile pervenire a risultati validi ricorrendo a metodologie, per così dire, "classiche"; occorre tenere conto non soltanto delle singole parti che compongono il processo ma anche delle loro "interazioni": più volte ho precisato che il "modello" cibernetico è basato proprio su una visione d'insieme dei processi, all'interno della cosiddetta "teoria dei sistemi".
    Un "automa" è un esempio particolare di sistema: al momento, però, non mi soffermerò sulla teoria degli automi.
    Il concetto di sistema è stato sufficientemente puntualizzato nei miei precedenti articoli, ora desidero illustrare il concetto di processo: esso non è altro che "l'estensione" temporale del concetto di sistema.
    Che vuol dire ?
    Vuol dire che un processo costituisce "l'evoluzione" nel tempo subita dagli elementi di un sistema e dalle sue variabili d'uscita, quando ad esso viene fornita una determinata combinazione di valori delle variabili in ingresso.
    Dunque se il sistema si trova, in un certo momento, in un determinato "stato", possiamo immaginare il processo come una "successione" di stati.
    In sintesi, non è possibile studiare un processo senza aver analizzato il sistema che ne ha consentito lo svolgimento "temporale".
    Per modello s'intende una qualsiasi rappresentazione di un processo, che consente di "simularne" il funzionamento allo scopo di semplificarne lo studio (un sistema può essere descritto da diversi modelli, basati sul grado di astrazione richiesto).
    Torniamo ora ai processi: essi possono essere "regolati" oppure "controllati" (automaticamente).
    Qual è la differenza tra processo "regolato" (o sistema di regolazione) e processo "controllato" (o sistema di controllo) ?
    Lo illustrerò con un semplice esempio: supponiamo di avere un motore elettrico la cui velocità di rotazione dipende da vari parametri, tra cui la coppia resistente, la tensione d'alimentazione e così via; se ci prefiggiamo di mantenere costante il regime di rotazione del motore al variare dei suddetti parametri, stiamo attuando la "regolazione" del motore stesso, mentre se vogliamo che tale rotazione vari in base ad una legge prestabilita, stiamo realizzando il "controllo" del motore.
    Da quello che abbiamo detto si evince che un sistema di regolazione non è che un caso particolare di un più generale sistema di controllo.
    Per grandezza regolata o controllata si intende quella grandezza fisica, tipica di un processo, a cui si dà il nome di "variabile d'uscita" (il cui valore dipende, a sua volta, da altre variabili in ingresso) e sulla quale vengono eseguite le operazioni di regolazione o di controllo da cui dipende il funzionamento del processo.
    Ribadisco ancora una volta che se la grandezza controllata deve rimanere costante si attua una regolazione mentre se essa deve variare secondo una legge prestabilita si realizza un controllo.
    Un'altra importante classificazione dei sistemi di regolazione e di controllo viene fatta in base alle loro modalità di funzionamento: esistono sistemi ad anello aperto (open loop) e sistemi ad anello chiuso (closed loop).
    Per regolazione (o controllo) ad anello aperto s'intende un semplice comando, a cui non segue alcuna azione di verifica del risultato ottenuto (non c'è alcuna retroazione).
    In un sistema di controllo ad anello chiuso, invece, viene utilizzato un trasduttore che misura la grandezza controllata e fornisce al controller un segnale elettrico, detto di "retroazione", proporzionale al suo valore.
    Il controller, istante per istante, confronta i valori dei segnali d'ingresso con quelli di retroazione e varia la sua uscita, minimizzando eventuali differenze.
    Si può capire ora perché, nel settore dell'automazione industriale, vengono utilizzati quasi esclusivamente sistemi ad anello chiuso.
    Per concludere questa breve introduzione ai sistemi a retroazione, dirò che gli esseri viventi, e più in generale i sistemi naturali, sono dotati di sistemi di auto-controllo che fanno parte del loro patrimonio genetico e che si sono evoluti nel tempo.
    In particolare, nel caso degli esseri viventi, uomo compreso, coesistono meccanismi di retroazione (feedback) sia negativa che positiva (per questo motivo si parla di retroazione "integrale").
    La retroazione negativa, come già rimarcato, tende a riequilibrare il sistema in caso di piccoli disturbi esterni, annullando eventuali "scarti"; la retroazione positiva tende invece a creare nuovi stati di equilibrio quando essi sono notevolmente disturbati dall'esterno.
    Avrò modo di illustrare meglio in seguito questi concetti e le loro importantissime implicazioni.
    Buona lettura

    P.S. http://win.iisteramo.gov.it/vecchio_ordinamento/Elettronica/appunti_sistemi_DSF/3-%20Panoramica%20dei%20sistemi%20di%20controllo.pdf

  8. #8
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LA RETROAZIONE NEGATIVA
    --------------------------------

    Nei sistemi di controllo in catena aperta, come abbiamo visto, l'ingresso viene impostato in modo predeterminato, facendo una stima a priori del comportamento del sistema. La stufa elettrica e il forno sono due esempi di sistemi "artificiali" ad anello aperto, in cui l'azione di controllo è predefinita e non c'è alcuna verifica "automatica" su tale azione. Nel caso dei controlli in catena chiusa, invece, l'uscita del sistema viene misurata e confrontata con un valore di riferimento, che rappresenta il valore "ideale" dell'uscita stessa. Nel caso in cui si verifica uno "scostamento", il sistema varia automaticamente l'ingresso in modo da riportare l'uscita al valore predefinito; in pratica viene attivato un meccanismo di auto-controllo, peraltro presente anche in molti
    sistemi "naturali", in particolare nei sistemi biologici. In un sistema di controllo ad anello chiuso vengono sempre impiegati tre dispositivi: 1) un trasduttore, che effettua delle misurazioni su una grandezza d'uscita e invia gli opportuni segnali al controller; 2) il regolatore vero e proprio, a cui pervengono i segnali dei sensori in modo che possano poi essere confrontati con i valori prestabiliti; 3) uno o più attuatori, che costituiscono gli organi di azionamento che effettivamente agiscono sul processo.
    Avremo dunque una grandezza da regolare con un valore istantaneo che può discostarsi più o meno dal valore di riferimento: la differenza tra questi due valori prende il nome di "scostamento". Pertanto l'azione di regolazione dipende dallo scostamento e dal tempo, oltre che dal tipo di regolatore: ci sono diversi tipi di regolazioni, su cui al momento non mi soffermerò, a cui corrispondono sistemi di controllo differenti.
    La cosa importante da comprendere è che un sistema cibernetico possiede la proprietà di auto-regolarsi; si tratta di sistemi sia "naturali" (cellule, organismi viventi, ecc.) che "artificiali", come ad es. una stufa dotata di termostato oppure il pilota automatico di una nave o di un aereo.
    A presto

    P.S. Nel caso della retroazione negativa ad una variazione in un certo verso dell'ingresso corrisponde una variazione in verso opposto dell'uscita.
    http://venus.unive.it/miche/cicli_ecosis/0013.htm

  9. #9
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LA RETROAZIONE POSITIVA
    -------------------------------

    Si ha una retroazione positiva quando ad una variazione in un certo verso del valore della grandezza in ingresso corrisponde una variazione nello stesso verso del valore della grandezza d'uscita: quindi, mentre la reazione negativa tende a neutralizzare le deviazioni, la reazione positiva tende ad amplificarle, promuovendo instabilità e cambiamento nel sistema, il quale verrà a trovarsi in un nuovo stato di equilibrio.
    Dunque la retroazione negativa è tipica dei sistemi chiusi, la retroazione positiva è tipica dei sistemi aperti.
    Un esempio di reazione positiva si riscontra nell'effetto serra: l'aumento di temperatura provoca il disgelo del terreno e la formazione di laghi; nei laghi i batteri decompongono sostanze organiche producendo metano (CH4), che è un gas serra.
    Una molecola di CH4 è in grado di "trattenere" calore quanto 21 molecole di CO2, si capisce così perché l'aumento di emissioni di CH4 contribuisca al riscaldamento dell'atmosfera.
    In sintesi, uscire da quelle capacità di auto-regolazione che sono presenti in quei processi che tendono a ristabilire la posizione di equilibrio di un sistema, significa andare incontro ad un cambiamento strutturale: si tratta cioè di una "evoluzione".
    L'evoluzione implica la presenza di instabilità (piccoli mutamenti che vengono amplificati); tale instabilità, però, si produce soltanto in una situazione di squilibrio.
    In condizioni di equilibrio non vi può essere alcuna evoluzione.
    A presto

  10. #10
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    LA RETROAZIONE INTEGRALE
    ---------------------------------

    Per "omeostasi" s'intende la tendenza al mantenimento di un certo stato di equilibrio chimico-fisico interno da parte di un organismo. Si tratta di diversi meccanismi che agiscono a vari livelli (cellule, tessuti,ecc.) e riguardano parametri come la pressione del sangue, la glicemia, i battiti cardiaci e così via. La regolazione omeostatica avviene, come sappiamo, attraverso meccanismi di retroazione positiva e negativa (molto importante è l'ipotalamo, la cui azione si svolge tramite il sistema endocrino e il sistema nervoso): i sistemi omeostatici, di cui i sistemi viventi fanno parte, sono sistemi a retroazione integrale. La condizione di equilibrio stazionario degli esseri viventi è assicurata da meccanismi di retroazione negativa; se i disturbi sono ad un livello tale da far allontanare lo stato stazionario dal suo punto di equilibrio, possono generarsi fenomeni di "feedback" positivo: il sistema si assesterà su un nuovo punto di equilibrio, ciò che comporta l'evoluzione del sistema stesso. Un esempio è dato dai cambiamenti ambientali, in cui i fattori "ecologici" (biotici e abiotici) sono fondamentali: in particolare i fattori biotici, di cui l'uomo fa parte, possono contribuire a modificazioni "abiotiche" attraverso relazioni di retroazione. Cause "antropiche" come l'inquinamento ambientale possono avere un impatto notevole sull'equilibrio "globale" dell'ambiente, andando ad incidere in modo radicale sia sui fattori abiotici che su quelli biotici.
    Buona lettura

  11. #11
    Advanced Member
    Data Registrazione
    14-09-2010
    Messaggi
    660
    L'AUTOMAZIONE
    ------------------

    Cos'è un processo produttivo ?
    Per processo produttivo s'intende l'interazione di diversi "mezzi" (i fattori produttivi ossia le persone, i macchinari, i materiali, l'energia, ecc.) al fine di ottenere un certo prodotto. I processi produttivi possono essere continui (ad es. la produzione di energia elettrica), semi-continui (ad es. nel caso dell'industria alimentare, in cui le lavorazioni sono caratterizzate da una serie di operazioni eseguite su un certo numero di pezzi uguali, chiamato "lotto") e discontinui (tipici dell'industria manufatturiera, in cui le singole lavorazioni vengono effettuate su un pezzo per volta, anche su più linee "convergenti"). Nell'ambito dei processi produttivi industriali assume estrema importanza il concetto di "controllo di processo", inteso come interazione di diversi mezzi allo scopo di far "evolvere" il processo secondo le specifiche richieste per i prodotti da ottenere. Sia i processi che i controlli di processo possono essere effettuati manualmente o automaticamente ma i controlli automatici hanno avuto (e continuano ad avere) una larga diffusione dovuta ai notevoli vantaggi che hanno apportato da un punto di vista sia tecnologico che economico-sociale. Pertanto per "automazione" s'intende l'interazione di più mezzi che permette di evitare attività di tipo manuale sia per quanto concerne le singole fasi di lavorazione che per quanto riguarda i controlli di processo. L'automazione ha una natura essenzialmente multi-disciplinare, che coinvolge diverse discipline specialistiche: l'elettrotecnica, l'elettronica, la meccanica, l'informatica. Si delinea quindi quell'aspetto che nella pratica dell'automazione viene definito come "cultura meccatronica". Come si ottiene l'automazione di un processo produttivo ?
    Si ottiene attraverso l'impiego di diverse apparecchiature interconnesse in modo tale da formare un "comando automatico", ossia un sistema che in generale risulta costituito da tre elementi: 1) il blocco di comando (che coordina tutte le operazioni atte ad effettuare l'automazione richiesta); 2) il blocco di potenza (cioè la parte "di lavoro" vera e propria, che realizza materialmente l'operazione da automatizzare); 3) il blocco di comunicazione (ossia l'interfacciamento che consente lo scambio delle informazioni tra le altre due parti del comando). Il principio di funzionamento di un comando automatico si basa sull'utilizzo di "sensori" che prelevano informazioni sul processo e generano segnali di "consenso" che vengono inviati al blocco di elaborazione, il quale elabora, a sua volta, tali informazioni; i risultati dell'elaborazione vengono, infine, inviati, sotto forma di "segnali di comando", al blocco di potenza (ossia agli organi "attuatori"). In sintesi possiamo affermare che gli elementi di potenza costituiscono i "muscoli" del sistema mentre gli elementi di comando inviano gli "stimoli" ai muscoli, definendo l'evoluzione del sistema stesso.
    A presto

    P.S. Inutile ricordare che nel campo dell'automazione l'applicazione del concetto di retroazione (illustrato precedentemente), in particolare di quello della retroazione negativa, è di fondamentale importanza.
    https://www.tecnoapp.net/cosa-si-intende-automazione/ (un po' di storia dell'automazione)
    Ultima modifica di Kriss2; 23-08-2019 alle 16.01.07

Tag per Questa Discussione

Segnalibri

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •