Piccole riflessioni sull´evoluzione.....

Versione Completa   Stampa   Cerca   Utenti   Iscriviti     Condividi : FacebookTwitter
Pagine: [1], 2, 3, 4, 5, 6, 7, 8, 9, 10, 11
@Yoghurt@
00venerdì 27 aprile 2007 19:03
visto che piace tanto tirar fuori argomenti come fisica e matematica per screditare l evoluzionismo.....vorrei introdurre un personaggio che ha lavorato seriamente in questa direzione...

Ronald Aylmer Fisher è nato il 17 febbraio 1890 a East Finchley (Londra) ed è morto il 29 luglio 1962 ad Adelaide (Australia). Dal 1919 al 1933 è docente presso la stazione sperimentale di Rothamsted, poi, dal 1933 al 1943 a capo del dipartimento di eugenetica all'University College di Londra e infine, dal 1943 al 1957 titolare della cattedra di genetica a Cambridge.

Viene considerato colui che ha fatto della statistica una scienza moderna, in quanto ha fondato i concetti di riferimento della statistica matematica moderna.

Nel 1918 dimostrò matematicamente che i caratteri genetici (argomento di forte interesse per il darwinismo sociale) seguivano le regole indicate da Mendel e che si distribuivano secondo una curva di Gauss.

Fu tra i primi, o il primo, a comprendere l'importanza del campionamento casuale per poter generalizzare i risultati, in opposizione ai campionamenti fatti secondo criteri vari di opportunità.

Nel 1925 perfezionò il metodo ideato da William Sealy Gosset (alias Student) per confrontare due medie, ideando il test "t di Student" attualmente usato e introducendo il concetto di gradi di libertà.

Importante innovazione fu la cosiddetta analisi della varianza, ma fu un suo allievo (George W. Snedecor) a utilizzare una distribuzione diversa da quella gaussiana, introducendo la variabile casuale F di Snedecor, dove la F è in onore al maestro (Fisher).

Con The Design of Experiments (1935) introdusse la regola che gli esperimenti devono essere programmati (disegnati) prima di essere effettuati, affinché i test statistici possano avere una loro validità. In questo ambito introdusse i concetti di ipotesi nulla (H0) e ipotesi sperimentale (H1). Affermò (e si tratta di una grande novità in ambito del metodo scientifico) che nessuna ricerca sperimentale poteva dimostrare l'ipotesi sperimentale, ma solo "accettare" o "respingere" l'ipotesi nulla, anche se effettuare tanti esperimenti in cui si rigettava l'ipotesi nulla aumentava la credibilità che l'ipotesi sperimentale fosse vera.

Nonostante la sua abbondante produttività scientifica, era presidente della Royal Statistical Society, presidente della Société de Biométrie e presidente dell'Istituto Internazionale di Statistica (IIS).

Il fatto che, in seguito alle divergenze con il proprio maestro Karl Pearson, fosse divenuto direttore della stazione agraria di Rothamsted, alimenta tutt'ora la leggenda che la statistica moderna e la sua metodologia fosse nata in ambito agrario, mentre in realtà Fisher come i suoi predecessori si era formato nell'ambito della biometria, psicologia sperimentale o eugenetica. Infatti dopo aver diretto per 14 la stazione sperimentale gli venne assegnata la cattedra di eugenetica fondata da Galton e appartenuta a Pearson, e successivamente la Cattedra di Genetica all'Università di Cambridge.

Nel 1936 introdusse con The use of multiple measurements in taxonomic problems l'analisi discriminante (nella fattispecie quella lineare).

Grazie a lui oggi siamo arrivati a questo....
Gli algoritmi evolutivi, meglio noti come algoritmi genetici o AG, prendono spunto dall’evoluzione biologica, un meccanismo capace di trasformare un rettile strisciante in un uccello, senza obbedire a un piano predeterminato. Nella riproduzione sessuale, il rimescolamento dei geni di ciascun genitore combinato con mutazioni genetiche completamente casuali crea individui con nuove caratteristiche e gli organismi meno adatti tendono a non trasmettere i loro geni alle generazioni successive. Gli algoritmi evolutivi funzionano in modo molto simile, ma all’interno di un computer. Quando deve costruire una nuova antenna, per esempio, Lohn parte da una popolazione di progetti generati casualmente e valuta il rispettivo rendimento. I disegni che si approssimano al comportamento prefissato sono autorizzati a rimescolare le loro caratteristiche con quelle di altri candidati giudicati positivamente. I disegni più deludenti finiscono come l’archeopteryx: si estinguono.
Allevare antenne richiede tempo, beninteso. La maggior parte dei progetti è semplicemente disastrosa e sono necessarie moltissime iterazioni per individuare i modelli con migliori prestazioni. Ma quando si ha a disposizione un computer capace di produrre in un’ora mille generazioni di progetti, le idee interessanti non possono non venir fuori*. Malgrado il suo dottorato di ricerca, Lohn non segue una lezione di elettromagnetismo dagli anni dell’università, ma si aspetta di lanciare nello spazio entro quest’anno almeno uno dei progetti calcolati dal suo team, nell’ambito della missione Space Technology 5, in cui la NASA sperimenterà un terzetto di satelliti in miniatura. Il suo progetto computerizzato preferito è un affare a forma di cavatappi abbastanza piccolo da poter entrare in un bicchiere di vino, ma capace di trasmettere un ampio fascio di onde radio verso terra. E non assomiglia a niente che un ingegnere sano di mente si sognerebbe di progettare.
«Gli algoritmi evolutivi sono uno straordinario strumento per chi vuole esplorare gli angoli più oscuri dell’universo della progettazione», afferma Lohn. «Quando mostro alcuni dei miei disegni a esperti con venticinque anni di esperienza nel settore, la prima reazione è: ehi, ma funzionano davvero?» La risposta, leggermente piccata, è sì, funzionano davvero, come lo stesso Lohn è riuscito a dimostrare dopo mesi di prove. «Con un po’ di fortuna, nel corso del 2005 potremmo mandare nello spazio fino a sei delle nostre antenne», egli conclude.
Non tutti i problemi cedono di fronte all’approccio evoluzionistico. Ma quelli che possono essere affrontati in tal modo hanno diversi punti in comune: tutti si collocano oltre quella che il matematico John von Neumann chiamava barriera della complessità, la linea di confine tra i problemi che possono essere risolti con i tradizionali metodi riduzionisti e quelli che richiedono un approccio più intuitivo, alla «buttiamola lì e vediamo che succede». Fino a poco tempo fa, attraversare questa linea di confine era un’impresa piuttosto onerosa. Ma i moderni computer sono abbastanza veloci da poter vagliare milioni di anticonformistici disegni fino a scoprire qualcosa che funziona. Mettendo questa velocità a fattor comune con la capacità di applicare gli algoritmi evoluzionistici da parte dei moderni ingegneri, precisa David Goldberg, direttore dell’Illinois Genetic Algotithms Laboratory (Laboratorio per gli algoritmi genetici dell’Illinois) presso l’Università di Urbana-Champaign, si arriva a ciò che gli ingegneri amano chiamare «scalabilità»: la capacità di affrontare sfide di portata minuscola o enormemente estesa.
«Come le macchine a vapore, che ci hanno regalato una leva meccanica per portare a termine compiti ancora più impegnativi, gli algoritmi genetici cominciano a darci la leva intellettuale necessaria per dare una forma nuova al nostro lavoro», spiega Goldberg. «Automatizzando parte delle attività di sollevamento pesi cerebrale, riusciamo a liberare la nostra capacità di operare a un livello più elevato, più creativo». Ovviamente questa libertà ha il suo prezzo. Richiede che l’ingegnere ammetta l’incapacità di andare a esplorare ogni singolo lato oscuro dando fiducia a un ulteriore livello di assistenza meccanicistica. Un salto che un numero crescente di esperti ha deciso di compiere.

Da giocattolo a strumento
Riprodurre in pochi microsecondi un processo che impegna la natura per milioni di anni è un’idea che precede di parecchio l’effettiva possibilità di realizzarla. John H. Holland, 76enne docente di scienze informatiche presso l’Università del Michigan, dice di aver avuto l’idea la prima volta nei lontani anni 1950, mentre consultava gli scaffali della biblioteca del suo dipartimento. «Ogni tanto prendevo a caso un volume che mi sembrava interessante e lo leggevo», egli racconta. L’abitudine lo portò a leggere La teoria genetica della selezione naturale, un testo del 1930 scritto da Ronald Fisher, un matematico inglese prestato alle scienze biologiche. Ispirato dagli esperimenti sulle piante di pisello svolti nel XIX secolo dal monaco austriaco Gregor Mendel, Fisher elaborò una descrizione matematica della selezione naturale a livello dei singoli geni. Mentre i ricercatori avrebbero poi impiegato fino agli anni Cinquanta per descrivere i meccanismi biochimici di tale processo, lo studio di Fisher combaciava in ogni caso con ciò che allevatori e contadini sapevano da secoli: la riproduzione sessuale garantisce diversificazione e novità.
«Ecco da dove vengono gli algoritmi genetici», afferma oggi Holland. «Cominciai a chiedermi se fosse possibile allevare programmi come si allevano, che so, buoni cavalli o buone pannocchie di mais».
Holland scrisse il suo primo trattato sugli algoritmi adattativi nel 1962. Ma solo alla fine degli anni Settanta il matematico riuscì, con l’aiuto dei suoi studenti di dottorato, a mettere insieme le risorse computazionali necessarie per mettere l’idea in pratica. Holland attribuisce a uno di questi studenti, Edward Codd, il merito di aver convinto il suo ex-datore di lavoro, IBM, a vendere al gruppo di ricercatori del Michigan un mainframe a basso costo (Codd riuscì poi a conquistare un Premio A. M. Turing, equivalente informatico del Premio Nobel, per aver progettato il primo database relazionale). Anche così, i modesti 32 kilobyte di memoria del calcolatore limitavano le dimensioni e le ambizioni dei primi esperimenti svolti.
Goldberg, anch’egli studente di dottorato sotto Holland nei primi anni 1980, fu uno dei primi scienziati a sperimentare seriamente gli algoritmi evolutivi. Lo fece risuscitando uno dei problemi che aveva dovuto affrontare quando muoveva i primi passi nell’industria del gas naturale: rendere minimi i consumi energetici di una lunga tubatura in funzione della variazione dei consumi su scala regionale. I suoi algoritmi evolutivi producevano soluzioni non meno efficienti dei programmi di fluidodinamica realizzati dai progettisti del gasdotto. Ma quando Goldberg sottoponeva ai suoi algoritmi problemi sempre più complicati, questi prima o poi cominciavano a vacillare, soffermandosi troppo a lungo su vicoli ciechi evolutivi o sfornando disegni completamente assurdi. «Io stesso capivo i problemi che stavo cercando di risolvere meglio degli strumenti di cui mi servivo, il che era preoccupante», racconta Goldberg.
Goldberg dedicò la sua tesi di dottorato e cinque successivi anni di studio a una maggiore attendibilità degli algoritmi genetici. Scoprì, per esempio, che modificando per ogni nuovo algoritmo parametri come le dimensioni della popolazione di partenza o il tasso di mutazione, certi intoppi si potevano appianare. Ma tutto sommato le sue ricerche avevano dato un esito poco incoraggiante: gli algoritmi evolutivi erano spesso e volentieri ancora più complessi dei problemi che voleva affrontare. Alla fine, Goldberg imparò a stare ben alla larga da quelli che ama definire i «problemi dell’ago in un pagliaio», che richiedono una unica soluzione ottimale; questo tipo di problemi tende a mandare fuori controllo l’algoritmo genetico. Era meglio rivolgersi a problemi più abbordabili, caratterizzati da uno spettro piuttosto ampio di soluzioni a seconda del modo di approcciarli. «Se il numero di aghi è sufficiente perché l’algoritmo evolutivo sia in grado di suddividere il pagliaio in tanti covoni più piccoli, aumentano le possibilità di ottenere un risultato utile», egli dice.
Goldberg documentò le sue ricerche in un libro di testo del 1989, un volume che avrebbe ispirato altri ingegneri esperti di informatica a cimentarsi nell’impresa. Verso la metà degli anni 1990, gli ingegneri del Centro Ricerche della General Electric a Niskayuna, stato di New York, avevano trasformato gli algoritmi evolutivi in uno strumento di progettazione a uso interno, chiamato EnGENEous, poi utilizzato per individuare la forma più efficiente delle pale di turbina nei motori GE90 montati a bordo dei Boeing 777. EnGENEous permise alla squadra di progettazione del GE90 di eliminare uno stadio di compressione del motore, il che a sua volta comportò una riduzione del peso e dei costi di fabbricazione senza alcuna rinuncia sul piano del rendimento aerodinamico. «Dopo questo primo successo, si spalancarono le porte all’impiego di questo tipo di strumenti nelle più diverse applicazioni nell’ambito delle attività di GE», racconta Pete Finnigan, responsabile del laboratorio delle applicazioni di disegno meccanico avanzato presso lo stesso centro di ricerca. Gli ingegneri della Rolls Royce, della Honda e della Pratt e Whitney seguirono a ruota, introducendo gli algoritmi genetici nei loro processi di progettazione.


COSA SONO GLI ALGORITMI EVOLUTIVI

ALGORITMI GENETICI E ALGORITMI EVOLUTIVI



Gli algoritmi genetici (AG) costituiscono un sottoinsieme degli Algoritmi Evolutivi, termine generico che indica una gamma di sistemi di risoluzione dei problemi basati sull'utilizzo del calcolatore affini ai processi evolutivi. Oltre agli algoritmi genetici, essi comprendono la Programmazione Evolutiva, le Strategie Evolutive, i Sistemi Classificatori e la Programmazione Genetica.

In genere gli algoritmi utilizzati nelle discipline di Intelligenza Artificiale operano la ricerca di un massimo o di un minimo globale in uno spazio finito sulla base di vincoli sullo spazio delle soluzioni. Da un punto di vista formale possiamo dire che, dato un elemento X appartenente a uno spazio cartesiano D (nel caso in cui n sia la cardinalità di D, allora X sarà un vettore), e data una funzione detta funzione obiettivo, allora la ricerca dell'ottimo globale è la ricerca di un X* che massimizza tale funzione, cioè e . Fattori come la presenza di più punti di massimo locale, vincoli sul dominio D, la non linearità, possono rendere la ricerca molto difficoltosa, per cui il problema no è risolvibile in tempi accettabili. Allora si fa suo di algoritmi di tipo euristico che, pur risolvendo il problema con gradi di incertezza e non assicurando la convergenza della ricerca alla soluzione solo in casi particolari, richiedono tempi di convergenza molto minori.

Da qui la distinzione tra i metodi "forti" e quelli "deboli". I primi sono orientati alla soluzione di un problema specifico, sulla base della conoscenza del dominio particolare e della rappresentazione interna del sistema in esame. Le buone soluzioni ottenute sono difficilmente adattabili ad altri compiti e con risultati non soddisfacenti. I metodi deboli utilizzano poca conoscenza del dominio, non sono orientati a un target specifico e risolvono una vasta gamma di problemi. Gli algoritmi evolutivi sono algoritmi di ricerca euristici, considerati metodi deboli. Tuttavia è stata ultimamente introdotta la nuova tipologia dei metodi deboli evolutivi, metodi che hanno inizialmente poca conoscenza del dominio ma che durante la loro evoluzione acquistano maggiore consapevolezza del problema, implementando alcune caratteristiche dei metodi forti ("intelligenza emergente")








GLI ALGORITMI GENETICI



Tra la fine degli anni '50 e l'inizio degli anni '60 i ricercatori nel campo del computazione evolutiva cominciarono a interessarsi ai sistemi naturali nella convinzione che potessero costituire un modello per nuovi algoritmi di ottimizzazione. In questa ottica, i meccanismi dell'evoluzione possono essere adatti per affrontare alcuni dei più pressanti problemi computazionali, riguardanti la ricerca della soluzione tra un numero enorme di alternative. Ad esempio, per risolvere il problema della progettazione delle proteine con l'aiuto del calcolatore occorre costruire un algoritmo che individui una proteina con determinate caratteristiche tra un numero elevatissimo di possibili sequenze di aminoacidi. Analogamente, possiamo ricercare una serie di regole, o equazioni, che permettano di prevedere l'andamento dei mercati finanziari. Algoritmi del genere dovranno essere adattivi, "interagire" con un ambiente mutevole.



Da questo punto di vista gli organismi possono essere considerati ottimi risolutori di problemi, poiché sono in grado di sopravvivere nel loro ambiente, sviluppano comportamenti ed abilità che sono il risultato dell'evoluzione naturale. L'evoluzione biologica è assimilabile a un metodo di ricerca all'interno di un grandissimo numero di soluzioni, costituite dall'insieme di tutte le sequenze genetiche, i cui risultati, le soluzioni desiderate, sono organismi altamente adattati, dotati di forte capacità di sopravvivenza e di riproduzione in un ambiente mutevole, che trasmetteranno alle generazioni future il loro materiale genetico. Essenzialmente, l'evoluzione di una specie è regolata quindi da due processi fondamentali: la selezione naturale e la riproduzione sessuale, quest'ultima determina la ricombinazione del materiale genetico dei genitori generando un'evoluzione molto più rapida di quella che si otterrebbe se tutti i discendenti contenessero semplicemente una copia dei geni di un genitore, modificata casualmente da una mutazione. Si tratta di un processo ad alto grado di parallelismo: non opera su una specie per volta , ma mette alla prova e cambia milioni di specie in parallelo.

In breve, un algoritmo genetico (AG) è un algoritmo iterativo che opera su una popolazione di individui che codificano le possibili soluzioni di un dato problema. Gli individui sono valutati tramite una funzione che ne misura la capacità di risolvere il problema e identifica i più adatti alla riproduzione. La nuova popolazione si evolve in base ad operatori random, ispirati alla riproduzione sessuale e alla mutazione. Il ciclo completo è ripetuto fino al raggiungimento di un dato criterio di fermata. L'utilizzo di questi algoritmi è essenzialmente legato alla programmazione dell'intelligenza artificiale in robotica, alla biocomputazione, allo studio dell'evoluzione dei sistemi cellulari paralleli, a particolari problemi di gestione e sistemi di ottimizzazione in ingegneria.

Gli AG hanno quindi questi punti di forza:

possibilità di risolvere problemi complessi senza conoscere il preciso metodo di soluzione,

capacità di auto-modificazione in base al mutamento del problema,

capacità di simulare alcuni fenomeni data una struttura e modalità operative isomorfe con quelle dell'evoluzione biologica.

I primi tentativi di progettazione di strumenti di ottimizzazione, le Strategie Evolutive di Rechemberg e la Programmazione Evolutiva di Fogel, Owens e Walsh, non produssero risultati interessanti, poiché i test di biologia dei primi anni '60 mettevano in risalto l'operatore della mutazione, piuttosto che il processo riproduttivo per la generazione di nuovi geni. A metà degli anni '60 un progresso significativo fu segnato dalla proposta di John Holland, i cui Algoritmi Genetici sottolinearono per la prima volta l'importanza della riproduzione sessuale.

In alcune applicazioni, gli AG trovano buone soluzioni in tempi ragionevoli. In altre possono impiegare giorni, mesi o anche anni per trovare una soluzione accettabile. Ma poiché essi lavorano con popolazioni di soluzioni indipendenti, è possibile distribuire il carico computazionale su più calcolatori, che produrranno simultaneamente diverse ipotesi con la conseguente riduzione dei tempi di calcolo.


Quindi per aggiornare lor signori che sono rimasti ancora a Darwin e si sono persi 50 anni di ricerche nel campo evoluzionistico......oggi siamo in grado di definire a livello applicativo uno schema evolutivo che dimostra quanto esso sia vincente dal punto di vista della progettazione di nuove forme...


Mezmerize
00venerdì 27 aprile 2007 19:43
Salve yoghurt,
ogni tanto leggo quello che scrivi e ti ritengo intelligente...

solo una domanda: quell'eugenetica?


Con il termine eugenetica ci si riferisce a quella disciplina pseudoscientifica volta al perfezionamento della specie umana attraverso lo studio, la selezione e la "promozione" dei caratteri fisici e mentali ritenuti positvi (eugenetica positiva) e la rimozione di quelli negativi (eugenetica negativa).

citaz. da wikipedia (una a caso... per capirci)

[Modificato da Mezmerize 27/04/2007 19.44]

[Modificato da Mezmerize 27/04/2007 19.45]

@Yoghurt@
00sabato 28 aprile 2007 16:23
Dunque.....
Io la voce eugenetica in quello che ho postato non l´ho letta...

Infatti non mi interessa discutere questo aspetto secondo me va affrontato piu specificatamente nel campo NWO perche riguarda un estremo della ricerca scientifica che si allontana da quello che io intendo per ricerca = conoscenza.....

L´eugenetica rientra piu nel discorso conoscenza=applicazione....e rientra in un campo filosofico politico morale che richiede una discussione a se....

Ho citato questi algoritmi per far capire che mentre qualcuno cerca di utilizzare i principi della termodinamica per screditare l´evoluzionismo.....oggi allo stato attuale la stessa matematica progettazione ingegneria guarda all´evoluzione come strumento di risoluzione dei problemi.....E LO FA IN SENSO APPLICATIVO.....

Pero a me non interessa questo...

Quello che mi interessava e che ora estrapolero per meglio chiarirmi nelle mie intenzioni sono le seguenti osservazioni....

L´EVOLUZIONE E CARATTERIZZATA DAI SEGUENTI PASSAGGI -

1)la selezione naturale

2)la riproduzione sessuale, quest'ultima determina la ricombinazione del materiale genetico dei genitori generando un'evoluzione molto più rapida di quella che si otterrebbe se tutti i discendenti contenessero semplicemente una copia dei geni di un genitore, modificata casualmente da una mutazione. Si tratta di un processo ad alto grado di parallelismo: non opera su una specie per volta , ma mette alla prova e cambia milioni di specie in parallelo.

3)IL tempo

Ora questi tre fattori io ho intenzione di approfondirli andando a fare una ricerca nel tempo che avro a disposizione per cercare di trovare ad oggi le ultime - e non piu antiquate teorie e dimostrazioni compreso Darwin - scoperte fatte nel campo scientifico.....non e facile perche interessa diversi campi di cui io in persona non sono esperto e non ho accesso all´immensa banca dati che contiene tutte le informazioni necessarie....e difficile ma ci volgio provare....


Perche sono stufo di leggere critiche antievoluzionistiche basate se nessuna affermazione sensata, basata su informazioni vecchie ed antiquate, che pensano di poter tirare in ballo la termodinamica senza considerare il sistema di riferimento e quando ad oggi invece gia stiamo a parlare di EUGENETICA....cioe siamo piu avanti di quanto pensavo.....

Mezmerize
00sabato 28 aprile 2007 17:35
Re:

Scritto da: @Yoghurt@ 27/04/2007 19.03
visto che piace tanto tirar fuori argomenti come fisica e matematica per screditare l evoluzionismo.....vorrei introdurre un personaggio che ha lavorato seriamente in questa direzione...

Ronald Aylmer Fisher è nato il 17 febbraio 1890 a East Finchley (Londra) ed è morto il 29 luglio 1962 ad Adelaide (Australia). Dal 1919 al 1933 è docente presso la stazione sperimentale di Rothamsted, poi, dal 1933 al 1943 a capo del dipartimento di eugenetica all'University College di Londra e infine, dal 1943 al 1957 titolare della cattedra di genetica a Cambridge.






Lavoro lodevole quello che ti accingi a fare....
Evoluzionismo a parte (seguirò con attenzione il materiale che postaerai)ed Eugenetica a parte la mia intenzione era (è) quella di considerare attentamente Chi dice cosa e Quando, il tutto per arrivare sempre a quella famosa e decisiva domanda: PERCHE'?

Un esempo pratico?


freeforumzone.leonardo.it/viewmessaggi.aspx?f=24938&idd=1787

[Modificato da Mezmerize 28/04/2007 17.36]

@Yoghurt@
00domenica 29 aprile 2007 12:51
La selezione naturale.....
La selezione interviene nel "ciclo dell'evoluzione" per determinare il successo o l'insuccesso delle diverse strategie di adattamento.

- ciclo dell´evoluzione -
comprende:

Mutazioni, Apprendimento, Competizione, Cooperazione...

schematicamente rappresentato come:

Selezione
Mutazione - Riproduzione

Adattamento

Evoluzione - coevoluzione

Apprendimento - esperienza


Equilibrio stabile - margine del caos - caos



La selezione naturale puo' essere intesa come una forza che spinge i sistemi emergenti autorganizzati verso il margine del caos e quindi verso livelli di complessita' crescenti.

-Sistema Autorganizzato-

Si rileva una costante tendenza della materia a disporsi in forme sempre piu' complesse pur in presenza della tendenza al disordine insita nel secondo principio della termodinamica.
Esiste uno stretto nesso tra autorganizzazione e selezione (vedi margine del caos)

Sulla terra possiamo osservare i seguenti livelli di complessita

Proteine lipidi acidi nucleici

Cellule

Tessuti

Organi

Organismi

Ecosistemi


criticita' autorganizzata

Organizzazione dei sistemi in uno stato appena in equilibrio ovvero al margine del caos.

E qua caro carissimo Ghergon ci VIENE IN AIUTO LA SECONDA LEGGE DELLA TERMODINAMICA.....si quella che tu dici sia il motivo per il quale non puo esistere l´evoluzione....

Entropia - Estropia

consiglio per approfondire il discorso questo sito www.estropico.com/id268.htm

per farla breve

Infatti, a causa della legge di aumento dell'entropia, si dovrebbe passare da stati ordinati (nel senso sopra specificato) a stati sempre meno ordinati finché, raggiunto l'equilibrio termico, l'evoluzione si arresta e il sistema termodinamico "universo" raggiunge la quiete (equilibrio termico) e non è possibile più il fenomeno organizzatissimo della vita.

In effetti però la contraddizione è solo apparente.

E' vero che l'evoluzione cosmica procede per progressivi aumenti del disordine ma, in tutto questo caos, esistono fenomeni di "inversione locale" della seconda legge della termodinamica che permettono lo sviluppo di strutture altamente organizzate, come sono appunto quelle biologiche.

Questo senza violare affatto la legge generale.

Infatti la costruzione di ordine locale viene fatta a spese dell' "ordine esterno" e quindi l'entropia generale del sistema aumenta, come è giusto che sia, mentre quella locale (ad esempio la vita sulla Terra) diminuisce.

Quindi, sempre per restare all'esempio della vita terrestre, l'aumento di ordine che si vede nel nostro mondo è ottenuto a scapito sostanzialmente dell'energia che riceviamo dal Sole in forma di fotoni ordinati (energia cinetica) che, dopo l'uso, sono riemessi in forma disordinata come radiazione infrarossa termica, cioè calore che è una forma molto più "disordinata" di quella cinetica dei fotoni incidenti.

La seconda legge, per quanto ne sappiamo, ha valenza universale e domina tutto il comportamento della materia, ma proprio l'evoluzione termodinamica permette alla materia di strutturarsi in forme altamente organizzate (e quindi altamente ordinate) come appunto quelle che danno origine alla vita cosciente.

La vita è solo frutto del continuo apporto di "entropia negativa" e cioè estropia, tramite l'immissione e l'utilizzo di energia esterna.

Infatti, le strutture biologiche per emergere dal caos primievo della materia disorganizzata hanno un assoluto bisogno di energia, ad esempio -come già detto- dal sole, ma tale energia può essere utilizzata o assunta direttamente o tramite il processo noto come fotosintesi clorofilliana che avviene nelle piante oppure mangiando organismi che l'utilizzano.

CI SIAMO DIMENTICATI DEL SOLE CARO GHERGON?

In poche parole IN QUESTO SISTEMA ENTROPICO i MICROSISTEMI "VIVENTI" SONO IN GRADO DI ACQUISIRE NUOVA ENERGIA GRAZIE A FONTI BEN PRECISE QUALI IL SOLE E L´ALIMENTAZIONE.....





Selezione del piu' adatto (Neodarwinismo - Gould). Equilibrio punteggiato: periodi di equilibrio (criticita' organizzata) seguiti da grandi mutamenti evolutivi (transizione di fase) secondo una legge dell'elevamento a potenza

Ruolo del caso

Ecco quindi che si strutturano le tipiche catene alimentari del mondo biologico al cui vertice ci sono i cosiddetti predatori che mangiano tutte le categorie che fanno parte di detta piramide e che si trovano ad un livello più basso.
@Yoghurt@
00domenica 29 aprile 2007 12:54
thc_master
00mercoledì 2 maggio 2007 17:07
come le patate! [SM=g27837] [SM=x268919] [SM=x268947]
Ghergon
00mercoledì 2 maggio 2007 18:30
Scusate ma qui svicola il problema con concetti estranei!
Ma che stai a di???

Frammenti di inversione locale!!!???
Ti prego spiegami questa cosa che devo imparare ah ah ah [SM=g27828] [SM=g27828] [SM=g27828]

Guarda Yogurt ti do merito che non demordi ma non servono i copia incolla dai siti darwinisti che si inventano le cose, ci spieghino tu e lor signori cosa sono i frammenti di inversione locale....
E cosa c'entra il sole???

Spiegami con parole tue grazie... [SM=g27829]
thc_master
00mercoledì 2 maggio 2007 20:45
l'ò detto io!
come le patate
@Yoghurt@
00giovedì 3 maggio 2007 16:16
Ai due geni qua che se la ridono.....
Prova a "spegnere" il sole per un po di tempo e poi dimmi che succede sulla terra.....

Se non lo sai.....studia bravo che come hai detto devi imparare....
Ghergon
00giovedì 3 maggio 2007 18:05
Re: Ai due geni qua che se la ridono.....

Scritto da: @Yoghurt@ 03/05/2007 16.16
Prova a "spegnere" il sole per un po di tempo e poi dimmi che succede sulla terra.....

Se non lo sai.....studia bravo che come hai detto devi imparare....



Ecco ho capito siccome il sole splende Darwin aveva ragione... [SM=g27828] [SM=g27828] [SM=g27828]
Cosa sono i frammenti di inversione localeeee [SM=g27824] , visto che ci credi, diccelo!

Te lo dirò io... è l'entropia che mette in evidenza che nulla si evolve e siccome la loro stessa fisica li smentisce allora si inventano le panzane... [SM=g27822]
Ghergon
00giovedì 3 maggio 2007 18:06
Re:

Scritto da: thc_master 02/05/2007 20.45
l'ò detto io!
come le patate



[SM=g27828] [SM=g27828] [SM=g27828]
@Yoghurt@
00giovedì 3 maggio 2007 20:58
Bravo ridi ridi
All'interno del Sole sono "bruciati" idrogeno ed elio, attraverso reazioni nucleari. L'idrogeno è composto di un protone e di un elettrone; l'elio di due protoni, due neutroni e due elettroni. Alle temperature altissime presenti all'interno del Sole (intorno ai 14 milioni di gradi), nuclei di idrogeno si fondono insieme, formando nuclei di elio: in questo processo si ha una leggera perdita di massa, che si trasforma in energia radiante. Si liberano così quantità immense di energia. capaci di riscaldare la superficie del Sole fino a farle assumere il colore bianco, a circa 5700 °C. Dalla superficie incandescente l'energia si irraggia in tutte le direzioni, sotto forma di radiazione.
La Terra, posta a 149,5 milioni di chilometri dal Sole, intercetta una piccola quantità di quest'energia, per l'esattezza una parte su 200 milioni, corrispondente a 2 X 1017 J/s (due per dieci alla diciassettesima Joule al secondo).
L'energia solare che raggiunge il pianeta ad ogni secondo, misurata nel momento in cui arriva perpendicolarmente su una superficie di un metro quadrato posta là dove finisce l'atmosfera terrestre, è di 1370 J, cui corrisponde la potenza di 1370 watt e un irraggiamento (che è il rapporto tra la potenza termica e la superficie che la riceve), pari a 1370 watt/mq.


La radiazione solare che giunge sulla Terra si distribuisce su tutta la sua superficie sferica, perché la Terra ruota attorno al proprio asse. Può essere significativo rilevare che, nel corso di un anno, riceviamo un flusso di radiazioni solari medio, sull'intera superficie degli strati alti dell'atmosfera, di circa 350 watt per metro quadrato.

Bilancio energetico della terra

Dell'intero flusso di radiazioni solari che colpiscono la Terra, il 31% è riflesso dall'atmosfera nello spazio, il 14% è assorbito dall'atmosfera e poi irradiato nello spazio e verso la superficie della Terra, il rimanente 55% arriva sulla superficie della Terra che riceve pertanto, all'equatore, 753 watt per metro quadrato, sempre nell'arco di un anno.
Di questo 55% dell'energia che arriva alla Terra, il 30% serve per alimentare il ciclo dell'acqua, dall'evaporazione degli oceani, dei laghi, ecc. alle conseguenti precipitazioni; uno 0,3% per generare i cicli convettivi delle masse d'aria e d'acqua, ovvero la circolazione atmosferica e le correnti marine; circa il 9% è riflesso dalla Terra, mentre lo 0,2% dell'energia solare è utilizzato dalle piante attraverso la fotosintesi clorofilliana, il rimanente 15,5 è assorbito dal terreno. Questa piccola quantità di energia è alla base di tutto il ciclo alimentare e della vita di organismo; ad essa dobbiamo inoltre tutti i giacimenti di combustibili fossili, che derivano da materiale organico.
L'effetto complessivo degli scambi termici che avvengono sulla Terra è di mantenere costante la sua temperatura media.

La diminuzione di entropia introdotta dall'uomo, dalle piante e dagli animali sulla Terra viene poi largamente compensata dall'enorme aumento di entropia prodotto dall'attività del Sole. Nel sistema solare si osserva globalmente un crescente aumento dell'entropia. Se l'Universo si trovasse sempre alla stessa temperatura, non ci sarebbe un flusso termico da un corpo all'altro e la vita non potrebbe esistere

LE CELLULE VERDI (LE PIANTE) CREANO STRUTTURA ED ORDINE UTILIZZANDO ENERGIA CHE ENTRA NEL SISTEMA DAL SOLE
Nel sistema 'Terra' aumenti netti di qualità materiale sono generati quasi completamente dal processo di fotosintesi, alimentato dal sole. I cloroplasti nelle cellule delle piante catturano l'energia dei raggi solari e formano legami che forniscono energia per altre frome di vita, come gli animali.

Secondo la Seconda Legge della Temodinamica, il disordine aumenta in tutti i sistemi isolati e la terra e' un sistema chiuso rispetto alla materia. Allo stesso tempo e' un sistema aperto rispetto all'energia in quanto riceve luce dal sole (ogni giorno l'energia che arriva sulla terra dal sole equivale a circa 10-15.000 volte il totale di energia fossile che consumiamo) e questo flusso di luce continua a creare struttura ed ordine dal disordine.

VALORE DELLA BIODIVERSITA', INTERCONNESSIONE ED INTERDIPENDENZA TRA LE SPECIE VIVENTI.

Le specie viventi (si stima ce ne siano tra i 15 ed i 30 milioni sul nostro pianeta) sono interconnesse le une con le altre con modalità estremamente sosfisticate, nel rispetto di delicati equilibri. Tale rete di connessione si e' sviluppata attraverso un processo di evoluzione che prosegue da circa 3.8 miliardi di anni che ha portato ad un sistematico aumento della biodiversità. La biodiversità ha un valore inestimabile in quanto fonte di resilienza di un sistema vivente: un sistema altamente diversificato e' in condizione di reagire al meglio e di recuperare efficacemente di fronte ad uno stress. I biologi attribuiscono alla biodiversità significato analogo a quello che i banchieri attribuiscono al tasso di interesse.

Mentre nella foglia nascono ordine e vita, in un altro luogo, dove si produce l’energia necessaria, dove al suolo la natura morta si decompone, aumenta il disordine in un bilancio complessivo sempre a suo favore

La vita sulla Terra dipende dal continuo flusso di energia proveniente dal Sole. La quantità di energia fornita dal Sole alla Terra è di circa calorie annue. È una quantità difficile da immaginare; per esempio la quantità di energia solare che colpisce ogni giorno la Terra è più o meno di due miliardi di volte superiore all’energia elettrica prodotta ogni anno in Europa.

Circa il 30% di questa energia solare è riflessa nello spazio sotto forma di luce, mentre un 20% circa viene assorbito dall’atmosfera (vedi figura). Gran parte del restante 50% di energia che raggiunge la superficie terrestre viene assorbita e convertita in calore; tuttavia, una piccola parte, inferiore all’1%, viene trasformata, attraverso una serie di operazione effettuate dalle cellule delle piante e di altri organismi fotosintetici, in glucosio e ATP, molecole che racchiudono nei loro legami l’energia che sostiene tutti i processi vitali. I sistemi viventi trasformano l’energia da una forma a un’altra, convertendo l’energia radiante del Sole nell’energia chimica e meccanica utilizzata da tutto ciò che è vivente. Questo flusso di energia è l’essenza della vita. Le cellule possono essere meglio comprese se le si considera come un sistema complesso atto a trasformare energia. All’altra estremità della scala biologica troviamo che la struttura di un ecosistema (cioè, l’insieme di tutti gli organismi viventi di un particolare luogo e dei fattori non viventi con cui essi interagiscono) o della biosfera stessa è determinata dagli scambi di energia che avvengono tra i gruppi di organismi presenti all’interno di essa.

Le leggi della termodinamica
“Energia” è oggi una parola così comune che sorprende sapere che il termine è stato coniato circa 200 anni fa, ai tempi dell’invenzione della macchina a vapore. Fu solo allora che gli scienziati e gli ingegneri cominciarono a comprendere che calore, movimento, luce, elettricità e le forze che tengono uniti gli atomi nelle molecole sono tutte forme diverse di energia, che può essere definita più semplicemente come la capacità di provocare un cambiamento, o, come si dice spesso, di compiere un lavoro. Questa nuova conoscenza portò allo studio della termodinamica, la scienza delle trasformazioni dell’energia, e alla formulazione delle sue leggi.

La prima legge
La prima legge della termodinamica afferma, molto semplicemente, che l’energia può essere trasformata da una forma all’altra, ma non può essere né creata né distrutta.

L’elettricità è una forma di energia, come la luce. L’energia elettrica può essere trasformata in energia luminosa (per esempio, facendo passare un flusso di corrente attraverso il filamento di tungsteno di una lampadina), e l’energia luminosa può a sua volta generare un flusso di elettroni (cioè una forma di energia elettrica), come avviene nella prima tappa della fotosintesi.

L’energia può essere accumulata in diverse forme e poi trasformata in altre ancora. Nei motori delle automobili, per esempio, l’energia accumulata nei legami chimici della benzina viene trasformata in calore (energia cinetica molecolare), che è poi, in parte, convertito nei movimenti meccanici degli ingranaggi del motore; parte dell’energia è ritrasformata in calore dall’attrito delle componenti del motore in movimento e parte esce dal motore con i prodotti di scarico. Analogamente, quando un organismo demolisce i carboidrati, trasforma l’energia accumulata nei legami chimici in altre forme. Nelle notti d’estate, per esempio, le lucciole trasformano l’energia chimica in energia meccanica, in calore, in lampi di luce e in impulsi elettrici che viaggiano lungo i nervi del corpo. Gli uccelli e i mammiferi trasformano l’energia chimica in calore necessario per mantenere costante la temperatura del loro corpo, e anche in energia meccanica nel movimento muscolare, elettrica nella trasmissione dell’impulso nervoso e in altre forme di energia chimica. Secondo la prima legge della termodinamica, in queste trasformazioni di energia (così come in tutte le altre) l’energia no è né creata né distrutta.

In tutte le trasformazioni energetiche, tuttavia, una parte dell’energia utilizzabile viene convertita in calore e dissipata come tale. Nel motore di un automobile, infatti, il calore prodotto dall’attrito e perduto nei prodotti di scarico, a differenza del calore rimesto nel motore stesso, non può compiere un lavoro, cioè non può spingere i pistoni e azionare gli ingranaggi in quanto viene dissipato nell’ambiente. Ciò nondimeno, esso fa parte della reazione complessiva. In un motore a benzina circa il 75% dell’energia presente in origine nel carburante viene trasferita nell’ambiente sotto forma di calore, cioè viene convertita in un aumento del movimento di atomi e molecole dell’aria. Nello stesso modo, il calore prodotto dai processi metabolici degli animali è dissipato nell’aria o nell’acqua circostante.

Perciò la prima legge della termodinamica può anche essere enunciata come segue: in tutti gli scambi e in tutte le trasformazioni energetiche, l’energia complessiva del sistema e dell’ambiente circostante, dopo la trasformazione, è uguale all’energia complessiva presente prima che la trasformazione abbia luogo. Un “sistema” può anche essere un’entità ben definita come, per esempio, un candelotto di dinamite, un motore di un automobile che gira a folle, un mitocondrio, una cellula, una foresta o la terra stessa. “L’ambiente circostante” è tutto ciò che sta al di fuori del sistema.

La seconda legge
L’energia dissipata come calore in una trasformazione energetica non è andata distrutta (infatti, è ancora presente nel movimento casuale di atomi e molecole), ma è stata “perduta” per ogni scopo pratico e quindi no è più disponibile per compiere un lavoro utile. Questo ci porta alla seconda legge della termodinamica, più interessante dal punto di vista biologico.

La seconda legge afferma che in tutte le trasformazioni e scambi energetici, se il sistema in questione non cede o acquista energia, l’energia potenziale presente alla fine sarà sempre minore dell’energia potenziale presente all’inizio. Questa legge è del tutto in armonia con l’esperienza quotidiana: un ammasso rotolerà giù da una collina, ma mai verso l’alto, o una palla, cadendo, rimbalzerà, ma non fino a raggiungere l’altezza dalla quale è caduta.

Un processo fisico o chimico che presenta, nello stadio finale, un’energia potenziale minore di quella presente nello stadio iniziale, è un processo che libera energia e viene detto esoergonico. Solo le reazioni esoergoniche possono avvenire spontaneamente, cioè senza che il sistema prenda energia dall’esterno. Al contrario, un processo in cui l’energia potenziale, alla fine, è maggiore di quella presente all’inizio, è un processo che richiede energia: esso viene detto endoergonico e, perché possa avvenire, il sistema deve ricevere un apporto energetico.

Le molecole contengono energia potenziale immagazzinata nei legami chimici che tengono uniti tra loro gli atomi. Quando, durante una reazione chimica, questi legami si spezzano, l’energia in essi contenuta può essere utilizzata per formare nuovi legami chimici o essere liberata sottoforma di calore. Se l’energia potenziale dei prodotti è minore di quella dei reagenti, la reazione è esoergonica e verrà liberata energia; se, invece l’energia potenziale dei prodotti è maggiore di quella dei reagenti, la reazione è endoergonica e avverrà solo grazie ad un apporto di energia.

Un altro fattore che determina la differenza di energia potenziale tra reagenti e prodotti di una reazione chimica è il grado di disordine dei reagenti e dei prodotti: maggiore è il disordine, minore risulta l’energia potenziale. Pertanto, la seconda legge della termodinamica può essere enunciata anche in un altro semplice modo: tutti i processi naturali tendono sempre a far aumentare il disordine dell’Universo. Questo disordine è detto entropia. Nella figura vedete l’esempio di come può essere dissipata una forma concentrata di energia. In natura i processi tendono verso la casualità o il disordine. Soltanto un apporto di energia può invertire questa tendenza e ripristinare lo stato iniziale a partire da quello finale; alla fine, comunque, prevarrà il disordine, perché la quantità totale di energia nell’Universo è una quantità finita.

I sistemi viventi e la seconda legge
L’Universo, secondo il modello attuale, è un sistema chiuso, cioè né la materia né l’energia possono entrare o uscire dal sistema. La materia e l’energia presenti nell’Universo al momento del Big Bang costituiscono tutta la materia e l’energia che si potrà mai vivere. Inoltre, dopo ogni trasformazione e ogni scambio di energia, l’Universo nel suo insieme ha meno energia potenziale e più entropia di prima. Da questo punto di vista l’Universo si sta esaurendo; le stelle si spegneranno con un tremolio, una alla volta, e la vita, ogni forma di vita su ogni pianeta, cesserà. Alla fine cesserà anche il movimento di ogni singola molecola. Tuttavia, anche lo scienziato più pessimista crede che questo non accadrà prima di 20 miliardi di anni.

Nel frattempo la vita può esistere proprio grazie al fatto che l’Universo si sta esaurendo. Anche se l’Universo, nel suo insieme, è un sistema chiuso, la Terra non lo è; essa infatti, come abbiamo visto, riceve dal Sole un apporto di energia di circa calorie all’anno. La figura mette a confronto un sistema aperto (come può essere appunto il nostro pianeta) con un sistema chiuso: una vasca per i pesci (A) è un sistema aperto in cui un apporto costante di energia dall’esterno mantiene l’ordine; la stessa vasca per i pasci posta al buio in un contenitore sigillato (B) diventa un sistema chiuso in quanto né materia né energia possono entrare o uscire da esso e le eventuali forme di vita spariranno.

Gli organismi fotosintetici sono degli specialisti nel catturare l’energia luminosa liberata dal Sole mentre esso si consuma. Questi organismi utilizzano l’energia per organizzare molecole piccole e semplici (acqua e anidride carbonica) in molecole più grosse e complesse (zuccheri). In questo processo l’energia luminosa catturata viene accumulata come energia chimica nei legami chimici presenti negli zuccheri e in altre molecole.

Le cellule, comprese quelle fotosintetiche, possono trasformare questa energia accumulata in movimento, elettricità, luce e, trasferendo l’energia da un tipo di legame chimico ad un altro, in forme più utili di energia chimica. A ogni trasformazione parte dell’energia è perduta nell’ambiente sotto forma di calore; ma prima che l’energia catturata dal Sole sia completamente dissipata, gli organismi la usano per creare e mantenere la complessa organizzazione delle strutture e delle attività che costituiscono la vita.

TI E CHIARO ORA IL SISTEMA TERRA SOLE LAVORA IN SIMBIOSI E MENTRE IL SOLE SEGUE LA LEGGE DELL´ENTROPIA LA VITA SULLA TERRA RIESCE A SFRUTTARE ATTRAVERSO IL LAVORO L´ENERGIA DEL SOLE ATTRAVERSO PROCESSI CHE RIDUCONO L´ENTROPIA SUL NOSTRO PIANETA......

RIDI RIDI





[Modificato da LiviaGloria 04/05/2007 14.58]

@Yoghurt@
00giovedì 3 maggio 2007 21:04
Approposito.....
l´entropia non e tutta sta certezza scientifica come piacerebbe a certi ma e ancora materia di discussione in quanto non gli si e riusciti a dare una "dimensione" esatta.....
@Yoghurt@
00giovedì 3 maggio 2007 21:10
Ancora...
Per quanto riguarda la nascita del Sole e del sistema solare, essa avvenne circa 4,6 miliardi di anni fa, dalla condensazione e dal collasso gravitazionale di una nube galattica. Per una descrizione più dettagliata, ti rimando ad una precedente risposta.

Aggiungo inoltre un fatto rilevante: la nube dalla quale ebbe origine il nostro sistema solare era sicuramente stata "contaminata" dal materiale disperso nello spazio dall'esplosione di una supernova; infatti l'universo primordiale era composto esclusivamente da idrogeno ed elio mentre il nostro pianeta (e noi stessi!) siamo costituiti da atomi ben più pesanti e complessi.
Ad oggi l'unico meccanismo noto di creazione di questi atomi che permetta una loro successiva diffusione nello spazio sono appunto le esplosioni di supernova.

Per quanto riguarda la fine del Sole, essa avverrà tra 5-6 miliardi di anni. Fino ad allora esso resterà una stella relativamente tranquilla ma, sul finire della sua esistenza, l'idrogeno nel suo nucleo comincerà a scarseggiare, sostituito dall'elio che si sta accumulando quale combusto della fusione nucleare.
A quel punto il nucleo del Sole, non sufficientemente sostenuto dal calore interno, subirà una contrazione fino a raggiungere le temperature di fusione dell'elio; contemporaneamente gli strati esterni si gonfieranno fino ad investire i pianeti interni (Terra compresa) ed a distruggerli.
La nostra stella sarà diventata una gigante rossa. Ad esaurimento dell'elio nel nucleo, dopo alcuni milioni di anni, il Sole andrà lentamente spegnendosi e contraendosi, sotto forma di una nana bianca che vagherà nello spazio come un relitto stellare.

In merito alla dipendenza della nostra esistenza da quella del Sole, si potrebbe dire in due parole che (quasi) nessuna forma vivente potrebbe esistere in assenza di esso.
Le ragioni coinvolgono la fisica di base, ed in particolare il principio di conservazione dell'energia: spero che tu abbia ben presente come tutte le forme di vita non siano altro (riducendo il tutto ai minimi termini) che degli agglomerati di molecole organiche nelle quali avvengono delle reazioni chimiche catalizzate che consentono loro di autosostenersi e riprodursi.
Per svolgere questi compiti, c'è bisogno di un apporto di energia dall'esterno (senza la quale l'entropia avrebbe il sopravvento), energia che, a seconda della posizione di ciascun organismo nella catena alimentare, può venire dalle molecole chimiche ottenute consumando altri organismi (animali o vegetali) o producendola mediante fotosintesi.
Alla fine dei conti, comunque, tutti dipendiamo dalle piante, le quali a loro volta necessitano della radiazione solare per trasformare le molecole semplici quali acqua ed anidride carbonica in zuccheri e cellulosa.
Perciò, in mancanza dell'energia prodotta dal Sole, nessuna forma di vita potrebbe sostenersi sulla Terra.


A dire il vero, comunque, esistono delle eccezioni costituite da quei microrganismi che vivono nelle profondità degli oceani in prossimità delle sorgenti di calore geotermico; ciò comunque non toglie che l'esistenza degli esseri umani e delle specie più evolute sia strettamente dipendente dal Sole.

Anche la nostra civiltà tecnologica, inoltre, non può fare a meno dell'energia solare: ancora una volta, l'energia che ci serve per ogni nostra attività produttiva (sempre ad eccezione di quella geotermica e nucleare) viene in modo diretto o indiretto dal Sole. Le fonti rinnovabili sono prodotte dall'azione della radiazione solare sull'atmosfera (energia eolica), sugli oceani (energia idroelettrica) o direttamente sull'impianto industriale (centrali solari); le fonti non rinnovabili (cioè i combustibili) vengono dalla decomposizione di organismi che accumularono nelle loro molecole l'energia proveniente dal Sole nelle epoche passate.
@Yoghurt@
00giovedì 3 maggio 2007 21:12
Beati voi di questo forum....
che vivete grazie solo alla luce di DIO
@Yoghurt@
00venerdì 4 maggio 2007 22:56
Stai continuando a ridere Ghergon?
Autoconservazione e processi energetici

Un principio fisico universale vuole che tutte le strutture organizzate siano incalzate dalla disorganizzazione; la grandezza fisica che misura questo grado di disordine progressivo è l'entropia.

Gli organismi viventi rappresentano le strutture più complesse e organizzate che si conoscano. Per lottare contro gli effetti dell'entropia, che conducono alla morte, la cellula ha un bisogno continuo di energia fresca, che è assunta sotto forma di alimenti. L'energia chimica in essi contenuta proviene, direttamente o indirettamente, dal Sole e, quindi, gli alimenti possono essere considerati come energia solare in conserva.

Senza il Sole, la vita sulla Terra sarebbe impossibile. Ma in che modo ci giunge quest'energia? Il Sole irradia continuamente nello spazio circostante delle radiazioni elettromagnetiche (ultravioletti, luce visibile, infrarossi, ecc.) che viaggiano sotto forma di "pacchetti energetici" detti fotoni. Il processo di cattura e utilizzazione dell'energia contenuta nei fotoni prevede due tappe: la fotosintesi clorofilliana e la respirazione cellulare. La prima di queste due tappe avviene nei cloroplasti delle cellule vegetali. In questi organuli è presente una specie di "mulino solare" le cui pale sono date dalle molecole di una sostanza verde: la clorofilla. Per comprendere come questo mulino sia in grado di girare e produrre energia bisogna spostarsi a livello atomico.

Tutti gli atomi delle sostanze sono formati da un nucleo centrale attorno al quale girano delle particelle cariche negativamente dette elettroni. Gli elettroni gravitano attorno ai nuclei ad una distanza ben definita, corrispondente ad un determinato livello di energia. Se gli elettroni di un atomo sono colpiti da un raggio luminoso (e quindi energetico) sono in grado di svincolarsi maggiormente dall'attrazione del nucleo e di allontanarsi, portandosi su un orbita più lontana, e quindi più energetica (livello dell'elettrone eccitato). Si tratta, tuttavia, di un livello instabile e, dopo poco tempo, questi elettroni ricadono al livello energetico di partenza, restituendo, sotto forma di un altro fotone, l'energia che avevano ricevuto.

Nella fotosintesi clorofilliana, queste cadute sono canalizzate all'interno di strutture adeguate (sistemi di trasportatori di elettroni) che consentono di recuperare l'energia liberata dagli elettroni in ricaduta e di utilizzarla in un processo di sintesi di sostanze organiche a partire da sostanze inorganiche. Gli elettroni degli atomi che formano le molecole di clorofilla sono facilmente eccitabili alla luce del Sole. Questo fa sì che in ogni molecola si producono, per ogni istante, migliaia e migliaia di salti elettronici. La debole corrente elettrica prodotta da queste migliaia di cadute elettroniche, che possono essere paragonate al flusso di un torrente che fa girare le turbine di una centrale idroelettrica o al soffio del vento che muove le pale del mulino, viene utilizzata sia per costruire il cibo che per ricaricare parte delle riserve energetiche della cellula. In particolare, nel corso della fotosintesi, la cellula vegetale utilizza 6 molecole di anidride carbonica più 6 molecole di acqua, più energia solare, per sintetizzare uno zucchero a 6 atomi di carbonio, il glucosio. Come prodotto di "rifiuto" si liberano nell'aria 6 molecole di ossigeno (nel caso della fotosintesi aerobia). In sintesi:

6CO2+6H2O+Energia -> C6H12O6 + 6O2

Al contrario delle piante, gli organismi eterotrofi sono costretti a procurarsi le sostanze nutritive in forma già confezionata alimentandosi di piante o, come consumatori secondari, di altri animali vegetariani. In questo modo sono in grado di assicurarsi le sostanze zuccherine energetiche di cui hanno bisogno per i loro processi cellulari. Gli zuccheri ingeriti vengono trattati in modo da riestrarre "l'energia solare" che vi era stata imprigionata al momento della sintesi. Questa energia viene utilizzata per produrre molecole energetiche di ATP, l'unico combustibile utilizzabile dagli esseri viventi. Questo processo è noto come respirazione cellulare (da non confondere con la respirazione polmonare) ed avviene nei mitocondri, cui arrivano, trasportati dal sangue, sia gli zuccheri contenuti negli alimenti che ingeriamo, che l'ossigeno, assunto dai polmoni.

Il processo può essere distinto in due tappe:

inizialmente il glucosio viene frantumato, in assenza di ossigeno, in due frammenti a tre atomi di carbonio; questa reazione, analoga alla fermentazione, è detta glicolisi (letteralmente rottura del glucosio) e permette di ottenere, già in questa fase, una piccola quantità di energia;
successivamente, questi due frammenti a tre atomi di carbonio vengono inseriti in una specie di macina chimica, il cosiddetto ciclo di Krebs, che li tritura fino a trasformarli in composti elementari. Questa seconda tappa avviene in presenza di ossigeno e consente di bruciare la sostanza in modo da estrarre fino all'ultima "goccia" di energia chimica contenuta. Come sostanze di rifiuto si hanno anidride carbonica ed acqua:

C6H12O6 + 6O2 -> 6CO2 + 6H2O + Energia

È evidente che i prodotti finali della respirazione rappresentano i prodotti iniziali della fotosintesi. In molti organismi che vivono in assenza di ossigeno (anaerobi) il processo di respirazione cellulare si ferma alla prima tappa, cioè alla glicolisi. È questo il caso dei batteri fermentatori, tra i quali ricordiamo i batteri responsabili della fermentazione dell'alcol. In termini di resa energetica, la glicolisi è meno efficiente della respirazione cellulare completa, in quanto essa dà come prodotti finali due frammenti di zucchero a tre atomi di carbonio ancora ricchi di energia. In termini di rendimento energetico la respirazione cellulare consente di produrre una quantità di energia 18 volte superiore a quella ottenibile dalla semplice fermentazione.

Si è già accennato al fatto che questa energia, per essere utilizzata, deve essere immagazzinata in una molecola particolare, l'ATP o adenosintrifosfato. Si tratta di una molecola "riciclabile" che, quando è carica, è in grado di cedere rapidamente l'energia in essa contenuta trasformandosi in ADP o adenosindifosfato. L'energia liberata nel corso della respirazione cellulare viene utilizzata, appunto per "ricaricare" l'ADP ritrasformandolo in ATP.

Utilizzando ATP, la cellula può svolgere tutte le sue funzioni vitali comportandosi come una vera e propria industria chimica. Un industria, però, molto particolare. Infatti la cellula deve autocostruirsi le strutture (proteine strutturali), gli operai (enzimi) e le materie prime (molecole organiche) di cui ha bisogno. Per fare questo, deve essere anche in grado di curare la manutenzione del proprio apparato e di controllare i propri cicli di produzione. Tutte queste attività sono sotto il controllo degli acidi nucleici: DNA ed RNA. Grazie a questo controllo e alle sue capacità di gestione, la cellula può autoregolare l'insieme delle sue attività chimiche e funzionali (metabolismo). In che modo?

Per rispondere a queste domande è indispensabile analizzare il differente funzionamento di una macchina automatica a comando rigido e di una macchina a comando flessibile, un "servomeccanismo", cioè un meccanismo in grado di modificare da solo il suo comportamento in funzione delle informazioni che riceve dall'ambiente circostante Un sistema di semafori è un classico esempio di macchine a comando rigido. Esse si modificano secondo una serie di eventi prestabiliti (ad esempio la sequenza e la durata dei colori). La sequenza delle operazioni si svolge secondo cicli identici. Un servomeccanismo lavora in modo diverso. Prendiamo ad esempio una capsula spaziale che debba effettuare un appuntamento orbitale con una stazione planetaria. Una volta in orbita la capsula si muove per mezzo di piccoli getti prodotti da ugelli orientati. La distanza che la separa dal suo obiettivo viene valutata per mezzo di radar. I dati vengono trasmessi ad un computer che valuta automaticamente lo scarto esistente tra la distanza e la direzione reale e la distanza e la direzione desiderata. Gli aggiustamenti vengono ottenuti azionando i getti. In pratica la capsula è in grado di dirigersi da sola sull'obiettivo e di procedere per errori e aggiustamenti successivi. Essa è, cioè, in grado di modificare il suo comportamento in funzione dell'informazione che riceve: non lavora secondo un ciclo prestabilito. Questi sistemi possiedono dunque una certa autonomia nel compiere il loro lavoro e l'impressione di intelligenza che ci lasciano è dovuto ad una loro proprietà fondamentale: la retroazione o feed-back.

In genere, le macchine compiono il loro lavoro secondo sequenze logiche in cui la causa precede gli effetti e non li segue mai. È il caso del semaforo, in cui la programmazione della centralina (causa) stabilisce gli intervalli di colore (effetto). Nelle macchine servoassistite, al contrario, gli effetti sono collegati alle loro cause e possono precederle determinandole. La navicella aziona i getti orientati (causa) e si muove (effetto).Tuttavia lo spostamento, quindi l'effetto, viene analizzato in modo da stabilire se sia necessario o meno azionare di nuovo i getti. Quindi, in questo caso, l'effetto precede e regola la causa. Questo legame tra effetto e causa si chiama retroazione. È evidente che ciò che circola in un sistema retroattivo è un'informazione, un segnale suscettibile di scatenare un'azione. Questa informazione può correre lungo un filo elettrico, un tubo, un'onda radar, ma può essere trasportata altrettanto bene da una molecola.

In una cellula la regolazione delle reazioni biochimiche è sotto controllo enzimatico. L'insieme di queste reazioni, in definitiva l'attività complessiva della cellula, rappresenta il metabolismo cellulare (causa). I prodotti dell'attività metabolica vengono detti metaboliti (effetti). Quando la concentrazione di una determinata sostanza (di un determinato metabolita) raggiunge, nella cellula, il giusto livello di concentrazione, le catene di montaggio devono poter essere bloccate. In altri termini la produzione deve essere arrestata quando l'offerta supera la domanda o avviata di nuovo nel caso opposto. Questo può avvenire sia agendo sugli enzimi che regolano il processo, sia sul tratto di DNA che fornisce le informazioni necessarie a quel tipo di produzione. Questo sistema cellulare autoregolante è strutturato secondo le stesse leggi della retroazione. In questo modo la cellula adatta in permanenza la sua produzione ai suoi bisogni; in definitiva la cellula rappresenta un complesso sistema servoassistito in cui tutto retroagisce su tutto, in modo tale che la cellula possa dirigersi da sola.

www.bo.astro.it/universo/webuniverso/bonfitto/bonfitto2a.html

Scusa Livia se a Ghergon gli do del "BUFFONE" mi censuri pure questo?
@Yoghurt@
00sabato 5 maggio 2007 11:20
Sempre per far ridere....
questo sito e molot carino ed interessante....

www.anisn.it/omodeo/omodeo/indice.htm

@Yoghurt@
00sabato 5 maggio 2007 11:42
Interessante notare....
come la struttura cellulare degli esseri viventi si mantenga simile anche per specie differenti......

No perche qualcuno ha detto che le cellule dell´uomo sono piu "intelligenti"......sono cellule animali....che hanno caratteristiche simili a quelle delle piante (il che conferma che pure loro sono esseri viventi)....che hanno caratteristiche simili a quelle dei Protisti....

Interessante poi vedere che un componente della vita sia

L'ATP
La 'moneta' per gli scambi energetici
L'istituzione di legami covalenti per formare ad esempio i polimeri che caratterizzano le cellule, avviene con consumo di energia. In qual modo avviene la fornitura dell'energia occorrente?

Protagonisti di questa fornitura sono i Ribonucleotidi trifosfati ed in particolare l'Acido adenosintrifosforico (sigla ATP ).

La molecola di questo singolare e importantissimo composto deriva dall'unione di una molecola di adenosindifosfato con una molecola di acido ortofosforico (H 3PO 4, sigla P):



ADP + P + 29.3 KJoule ? ATP
Quando questa reazione decorre da sinistra verso destra (fosforilazione dell'adenosindifosfato) viene immagazzinata una quantità di energia che viene stimata intorno alle 29.3 kJoule per mole, la stessa quantità di energia viene ceduta quando la reazione decorre da destra verso sinistra (defosforilazione dell'adenosintrifosfato) (animazione della reazione).

Per la facilità con cui immagazzina e cede una dose di energia, l'ATP viene anche indicato come 'moneta di scambio' del metabolismo dei viventi. Infatti, qualunque lavoro all'interno della cellula, sia che riguardi la sintesi di nuovi composti, sia che riguardi la motilità cellulare, o altri processi, avviene quasi sempre grazie alla defosforilazione dell'ATP. Solo in casi particolari la moneta di scambio può essere un altro ribonucleotide fosfato o un polifosfato, ma questa evenienza è piuttosto rara.

La respirazione è un processo biochimico complementare a quello della fotosintesi ed in effetti viene espresso con la medesima formula, salvo che la freccia ha verso opposto :



C6 H12 O6 + 6 O2 ? 6 CO2 + 6 H2 O + 2879 kJoule



Si tratta evidentemente di una reazione di ossido riduzione, in cui il glucosio si ossida e l'ossigeno si riduce

L'energia che si libera nel corso di questa reazione è misurabile con le unità della termodinamica, CV, Calorie, Joule di solito si usa esprimerla in kJoule. Per ogni mole di glucosio che viene 'bruciata' vengono prodotte 2879 kJoule di cui più di metà si disperde come calore, mentre il resto viene immagazzinato come energia di legame nelle molecole dell'adenosintrifosfato (ATP) .



Processi respiratori ed energia.
Quando si osserva la formula che riassume la reazione della respirazione:



C6 H12 O6 + 6 O2 ? 6 CO2 + 6 H2 O + 2879 kJoule



si ha l'impressione che questa consista in un diretto processo di combustione. Infatti la combustione dello zucchero si scrive proprio allo stesso modo.

Questa impressione è però erronea ed è dovuta al fatto che per brevità vengono indicati solo il composto di partenza e il composto di arrivo, mentre vengono omesse tutte le numerose e complicate tappe intermedie che permettono l'ossidazione a bassa temperatura; viene anche trascurato un particolare importante: processi di ossidazione non sono solo quelli in cui l'ossigeno si lega direttamente al substrato, ma sono anche quelli in cui viene sottratto H al substrato e, più in generale, quelli in cui il substrato viene privato di elettroni (quando vengono allontanati, gli elettroni si legheranno sempre ad un accettore che verrà così ridotto).

La prima tappa della respirazione cellulare vera e propria consiste nella perdita, da parte dell'acido piruvico di un atomo di carbonio, che si libera sotto forma di CO2 e nel contempo si ha la riduzione di una molecola di NAD+ a NADH; rimane così una molecola a 2 atomi di carbonio, detta gruppo acetile che si lega al CoA, costituendo l'acetil CoA;



CH3COCOOH+ HSCoA + NAD+ CH3CoSCoA + CO2+ NADH+H+



Questa reazione e le successive avvengono nella matrice dei mitocondri.

Il gruppo acetile entra in una complessa serie di reazioni che prende il nome di il ciclo di Krebs che consiste in una serie di trasformazioni che partono dall'acetil-coenzima A e ad esso ritornano. Questa sostanza reagisce con l'acido ossalacetico, trasformandolo in acido citrico, e liberando così il coenzima A, che può nuovamente legarsi a nuovi gruppi acetile. L'acido citrico, ad opera di vari enzimi, viene deidrogenato, decarbossilato e trasformato quindi in acido ossalacetico. Questa sostanza reagendo di nuovo con l'acetil-CoA si trasforma in altro acido citrico che viene similmente metabolizzato. Nel corso di ogni ciclo si formano 3 molecole di NADH, una di FADH2 2 ATP e 3 CO2 che diffondono fuori dal mitocondrio. Gran parte dell'energia è stata dunque immagazzinata nel NADH e nel FADH2, che possono essere ossidate dall'ossigeno, sprigionando una grande quantità di energia. Il processo, ancora una volta, avviene per stadi, attraverso una complessa serie di reazioni che prendono il nome di catena respiratoria o catena di trasporto degli elettroni, in cui sono coinvolte dei trasportatori di elettroni intermedi, i citocromi, disposti ordinatamente sulla superficie della membrana interna dei mitocondri. L'accettore ultimo degli elettroni è l'ossigeno, che, catturando ioni idrogeno, si trasforma in acqua

Una parte dell'energia che si sprigiona da tutti questi processi si accumula nelle molecole di ATP ed assomma a circa 234 kJoule.

Se calcoliamo la resa energetica a partire dal glucosio, le molecole di ATP recuperato sono 38 e immagazzinano complessivamente 1115 kJoule che rappresentano circa il 40% dell'energia di legame del glucosio. L'altro 60% di energia si libera come calore.

Da quanto è stato detto, dovrebbe risultare chiaro che la cellula si comporta come una macchina termica, avente rendimento alquanto superiore a quello delle macchine termiche fabbricate dall'uomo, ma non eccezionalmente elevato.

La respirazione diviene possibile per i microorganismi (ma non per l'uomo) quando la concentrazione di O2 è circa 1/100 di quella presente nell'atmosfera, al disotto di questo valore essa non ha luogo.

C´e da dire che la natura si e ingegnata per superare il problema dell´energia e dell´entropia caro ghergon....

"L'evoluzione viola la Legge della Biogènesi, secondo la quale la vita può venire soltanto da una vita che era preesistente e genererà soltanto la sua specie"........

Questo lo hai postato tu Ghergon giusto?.....

Ora spiegami come mai una sostanza "non vivente" come l´ATP e fondamentale per la vita.......

Come mai la vita neccessita anche del non vivente......

Ammettiamo pure che da un punto di vista evoluzionistico non si riescaancora a capire cosa "abbia fatto nascere la vita" di sicuro pero vediamo che la vita necessita di sostanze e processi che avvengono "spontaneamente" nell´universo e che gli elementi che consentono questo processo sono elementi chimici che combinati danno luogo alla vita e che il tutto e regolato dall´energia proveniente da una fonte come il sole ovvero da una stella che fornisce le calorie necessarie per i processi.....

Ora caro Ghergon spiegami la chimica crazionistica come e nata e come Dio ha scelto e deciso che combinare certi elementi e come ha detto loro di interagire con l´energia solare.....

thc_master
00sabato 5 maggio 2007 15:32
le patate [SM=x268947]

si mangiano crude arrosto e cotte danno anergia pulita e quando marciscono sono concime...

la risposta alla fine del mondo sono solo le PATATE!

era un skerzo amigi non gè da offendersi! [SM=x268938]
@Yoghurt@
00sabato 5 maggio 2007 19:44
Bravo....
magna patate cosi ti sale L´ATP e combatti l´entropia senno schiatti....

Pure col prezzemolo e aglio che fanno ancora piu bene....
@Yoghurt@
00sabato 5 maggio 2007 19:47
Poi....
quando voi geni avete finito de magna provate pure a dare delle risposte sensate alle mie domande....

che sono mesi che posto e cerco di capire "quale grande visione celeste" abbia la gente su sto forum che basta che dice "dio"....

e abbiamo capito tutto....si pero non chiedeteci di piu che abbiamo gia detto quello che ce da dire.....no scusate non abbiamo tempo...ah si l´ho postato 40 anni fa se vai indietro lo trovi....

BOIATE...
thc_master
00sabato 5 maggio 2007 19:49
ho mo per du patate...
poi l'ayo nn me piace più di tanto giusto con un soffrittino però al massimo ci posso fare lo sfornato!? [SM=x268940]

se noooo...
anche il limone! da energia pulita ecc ecc però dopo un p'ò caghi secco! [SM=x268951] [SM=x268951] [SM=x268951] [SM=x268951] [SM=x268951] [SM=x268951]

pece e resina

1a cosa mooolto important-e ma-i... arrab-i-ars-i [SM=x268963]
@Yoghurt@
00sabato 5 maggio 2007 21:33
Per quanto riguarda le mutazioni
EVOLUZIONE MOLECOLARE GUIDATA



di

Claudio Roncuzzi






L’evoluzione molecolare guidata è quel processo utilizzato in laboratorio per selezionare le molecole che hanno determinate caratteristiche. Essa utilizza gli stessi principi dell’evoluzione naturale. Entrambe si basano su tre processi fondamentali: la selezione, l’amplificazione e la mutazione; senza di essi non si potrebbe parlare di evoluzione. In laboratorio, durante gli sperimenti di evoluzione guidata, ci sono tre passaggi successivi, che corrispondono alle tre fasi dell’evoluzione:

si selezionano solo le molecole che rispondono alle caratteristiche ricercate dallo scienziato;
si amplificano le molecole selezionate, riproducendole con determinate tecniche
si fa in modo che durante l’amplificazione avvengano delle mutazioni casuali.
Per l’amplificazione si sono utilizzati procedimenti sempre più convenienti. In principio si utilizzava un enzima del batteriofago Qb (virus che infetta il batterio intestinale Escherichia Coli): la replicasi o RNA polimerasi RNA dipendente. Questo non era molto adatto, perché, anche se procurava un numero di mutazioni accettabile, non era in grado di copiare qualsiasi tratto di RNA o DNA.









In seguito, però, si sono scoperti dei sistemi migliori di replicazione: la reazione a catena della polimerasi (PCR) e l’amplificazione dell’RNA. Esse permettono di amplificare qualsiasi tratto di RNA o DNA ad una velocità molto elevata (un milione di copie in un’ora), ma sono troppo precise, e quindi non permettono che avvengano mutazioni; per questo motivo non sono adatte allo scopo dei ricercatori. Oggigiorno, però, si è riusciti a produrre versioni modificate della PCR e dell’amplificazione dell’RNA che fanno in modo che avvengano mutazioni con una frequenza "ragionevole" e controllabile.






Il primo a sperimentare l’evoluzione guidata in laboratorio fu Spiegelman: egli scelse come obiettivo da raggiungere, il moltiplicarsi il più possibile nel minor tempo possibile. Per fare ciò, egli ha messo in una provetta, insieme alle basi necessarie per la costruzione di RNA, dell’RNA virale e della replicasi; poi ha lasciato che la replicasi amplificasse l’RNA per venti minuti e ha trasferito un campione della miscela in un’altra provetta. Egli ha quindi ripetuto tutto ciò per 74 volte, restringendo sempre il tempo disponibile per moltiplicarsi. Alla fine, andando ad esaminare le sequenze di RNA ottenute, ha scoperto che esse si erano accorciate, riducendosi alle sole basi che servivano per far svolgere alla replicasi il proprio compito. Questo era avvenuto perché durante l’amplificazione, si erano verificate occasionalmente delle mutazioni all’interno della sequenza di RNA. Alla fine dell’esperimento, l’RNA virale non era più in grado di infettare Escherichia Coli, ma aveva raggiunto con successo l’obiettivo di Spiegelman.
Dato che tramite l’evoluzione artificiale guidata si è in grado di adattare gli RNA o DNA affinché svolgano i processi richiesti dai ricercatori, si è pensato che tale procedimento potesse avere applicazioni in campo farmaceutico. Ad esempio si potrebbe sviluppare un RNA che si leghi ad una proteina virale, bloccando quindi la capacità di dare infezione.
Con le attuali tecnologie si è in grado di partire, per ricercare un DNA o RNA che risponda a determinate caratteristiche, da una popolazione di 1013 molecole differenti, mentre tutte le possibilità sarebbero circa 1036. Perciò, quando si raggiunge lo scopo cercato, si avrà solo una delle possibili soluzioni a quel problema. Infatti, in generale, nell’evoluzione, "[…] le forme selezionate non sono necessariamente le risposte migliori, in senso astratto, a un problema, ma sono soltanto le risposte migliori che si manifestano nella storia evolutiva di una particolare macromolecola" (Gerald F. Joyce).
Un vantaggio dell’evoluzione guidata, rispetto a quella naturale, è che le soluzioni non adatte ad un problema, non devono necessariamente estinguersi, ma possono essere conservate in appositi congelatori, in modo da poter essere riutilizzate in futuro per raggiungere altri obiettivi. Infatti, anche se esse hanno già subito delle mutazioni, possono essere riutilizzate, in quanto l’evoluzione procede per mutazioni successive. Perciò, "[…] i geni presenti nella popolazione in un qualsiasi momento riflettono le proprietà che sono risultate vantaggiose nelle precedenti generazioni." (Gerald F. Joyce).
Questo processo dell’evoluzione guidata, perciò, potrà essere utilizzato dai biologi per trovare rimedi ad alcune malattie, fino ad oggi considerate incurabili; bisogna però fare ancora molta strada per perfezionarlo, come ad esempio trovare un modo per aumentare la dimensione delle popolazioni da manipolare.





da “Evoluzione molecolare guidata” di Gerald F. Joyce, tratto da “Le Scienze” n°294, febbraio 1993
@Yoghurt@
00sabato 5 maggio 2007 21:36
No e chi s´arrabbia....
alla fine qua continuano a farmi postare....

Sesso e evoluzione

redazione ECplanet

La riproduzione asessuata è causa di cattive mutazioni. È quanto sostengono due biologi evoluzionari della Indiana University su Science. I ricercatori hanno usato come modello la specie Daphnia pulex, una pulce marina, per i loro studi. Le scoperte supportano la teoria che il sesso sia un mezzo evoluzionario che riordina geni e rimuove efficientemente le mutazioni genetiche deleterie.

Lo studio suggerisce anche che la riproduzione sessuale in un certo senso “punisce” individui o intere specie che tendono verso l'asessualità. “Sappiamo che il sesso è comune a pianti e animali, e che le specie asessuali sono caratterizzate da una vita breve”, dice Susanne Paland, a capo dello studio. “I Nostri risultati mostrano che i devianti asessuali sono gravati da un numero crescente di cambiamenti genetici che influenzano negativamente la funzione delle proteine. Il sesso appare dunque come fondamentale per proteggere i genomi da mutazioni nocive”.

Il co-autore dello studio, Michael Lynch, aggiunge: “I risultati dei nostri studi forniscono la prima prova definitiva, a livello molecolare, che la riproduzione sessuale magnifica l'efficienza della selezione naturale eliminando dalla popolazione le mutazioni deleterie”.



Gli scienziati hanno usato i dati del genoma mitocondriale per comporre un albero filogenetico in cui rappresentare le relazioni tra le catene sessuali e asessuali del Daphnia pulex campionate da 75 stagni, dall'Illinois alla Nova Scotia (Canada). L'albero di questa famiglia ha rivelato che le popolazioni sessuali hanno ripetutamente eliminato le catene asessuali. Dopo aver sequenziato gli interi genomi mitocondriali comprendenti le linee sessuali e asessuali della Daphnia pulex, comparando il tasso di evoluzione proteica, hanno scoperto che le linee asessuali accumulavano cattive mutazioni 4 volte più velocemente delle linee sessuali.

È la conferma che il sesso - ovvero la ricombinazione genetica alla base della riproduzione sessuale - è la forza “purificatrice” che vigila sugli incidenti genetici che minano la salute evoluzionaria generale di una popolazione. Ben altro che mutazioni casuali, dunque. L'evoluzione non è affatto stupida. E il sesso gioca un ruolo fondamentale (anche se lo sapevamo già, ndr).

È la prova che le forme di riproduzione asessuata artificiale, come la clonazione, sono anti-evoluzionarie, perché producono cattive mutazioni. È per questo che la clonazione non funziona. Ci voleva una pulce per capirlo ?

La ricerca è stata finanziata dalla National Science Foundation, dai National Institutes of Health, e dal German Academic Exchange Service Hochschulsonderprogramm III. Il supporto bio-informatico è stato fornito dall' IU University Information Technology Services, finanziato dalla Indiana Genomics Initiative e da Lilly Endowment
@Yoghurt@
00sabato 5 maggio 2007 21:39
Altro...
Non tutti quelli che studiano l´evoluzione sono mele marcie...

Una proteina molto antica

a cura dell'Istituto Scientifico Universitario San Raffaele

Da due miliardi di anni una proteina regola la vita della cellula

Individuato al San Raffaele il meccanismo antichissimo che regola la nascita delle proteine. La ricerca è pubblicata sulla prestigiosa rivista scientifica “Nature”.

Un gruppo di ricercatori del Laboratorio di Istologia Molecolare dell'Istituto Scientifico Universitario San Raffaele di Milano in collaborazione con l'Università del Piemonte Orientale Amedeo Avogadro e con l'Istituto FIRC di Oncologia Molecolare (IFOM), ha identificato già nel 2003 un meccanismo fondamentale e antichissimo all'origine della formazione delle proteine. La ricerca è stata pubblicata sul numero del 4 dicembre 2003 della prestigiosa rivista scientifica “Nature”.

Le proteine sono fabbricate in serie dai ribosomi, le “catene di montaggio” della cellula, fatte di due sezioni che si uniscono e si attivano nel citoplasma. I ricercatori hanno scoperto che l'unione dei ribosomi è regolata da una proteina, detta p27, che controlla un passo fondamentale dell'attività cellulare: prima impedisce ai ribosomi di incontrarsi all'interno del nucleo, poi, al momento giusto, quando fuoriescono nel citoplasma, ne permette l'unione. Solo a questo punto la fabbrica comincia a lavorare. Un aspetto affascinante che caratterizza la proteina p27 è che esisteva già, praticamente identica, circa due miliardi di anni fa. Il fatto che si sia straordinariamente conservata nel corso dell'evoluzione e che sia presente in tutte le forme di vita dai lieviti all'uomo, con la sola eccezione dei batteri, indica che p27 controlla una funzione cellulare molto importante.

Stefano Biffo, che coordina al San Raffaele il gruppo dei ricercatori ed è docente all'Università del Piemonte Orientale Amedeo Avogadro, precisò a suo tempo: “Abbiamo notato che questo nuovo meccanismo regolato dalla proteina p27 ha molti punti in comune con altre forme di controllo generate dall'interazione tra le cellule dei tessuti e il loro ambiente. In altre parole il controllo della produzione delle proteine di ogni cellula è strettamente integrato con altri sistemi che vigilano sulla proliferazione, la forma o il movimento delle cellule”.

Pier Carlo Marchisio, docente di Anatomia dell'Università Vita-Salute San Raffaele e coautore della ricerca, commentò: “Il lavoro pubblicato su Nature rappresenta un fondamentale passo in avanti nella comprensione di una proteina isolata nel 1997 nei nostri laboratori. p27 è inoltre la prima molecola, nella storia decennale del DIBIT, a essere stata identificata, clonata, sequenziata e caratterizzata dal punto di vista funzionale interamente al San Raffaele, caso abbastanza raro, forse unico, che testimonia la possibilità di raggiungere grandi risultati grazie al lavoro di squadra e a un ambiente stimolante e altamente tecnologico”.

Un'ipotesi auspicata dai ricercatori è che questa scoperta possa aprire la strada all'individuazione di terapie mirate contro i tumori. I ricercatori hanno infatti notato come la proteina p27 sia prodotta in quantità molto elevate nei tumori e, in particolare, nei tumori del colon-retto, e come la sua quantità, in ciascuna cellula, sia correlata con il livello di malignità del tumore. Le cellule tumorali infatti usano gli stessi meccanismi delle cellule sane ma a ritmi più intensi: per proliferare rapidamente le cellule tumorali devono produrre una quantità maggiore di proteine.

È possibile che la proteina responsabile del meccanismo individuato da questa ricerca rappresenti una tessera importante del mosaico di segni che caratterizzano le cellule dei tumori ma per avere certezze e ipotesi terapeutiche concrete saranno necessari molti anni di lavoro e un grande impegno di risorse economiche e umane.

La ricerca fu finanziata dall'Associazione Italiana per la Ricerca sul Cancro (AIRC) e dal Ministero dell'Istruzione, dell'Università e della Ricerca. Si inserisce inoltre nel lavoro del “Centro di eccellenza in fisiopatologia della differenziazione cellulare” dell'Università Vita-Salute San Raffaele
@Yoghurt@
00sabato 5 maggio 2007 21:41
Altro...


di: Massimo Bertolucci

Scienziati del Brigham and Women's Hospital (BWH), dell'Hospital for Sick Children (Sick Kids) e dell'Harvard Medical School (HMS) segnalano l'esistenza di significative mutazione del genoma umano a livello individuale. Il team scientifico ha utilizzato innovativi sistemi di analisi del Dna scoprendo nei singoli genomi sostanziali variazioni la cui lunghezza raggiungeva fino a centinaia di migliaia di basi.

Il dottor Stephen Scherer del Dipartimento di Genetica molecolare dell'Università di Toronto sostiene che questa scoperta, ovvero queste variazioni su larga scala del genoma umano, potrebbero essere la risposta alla diseguaglianza delle persone le une rispetto alle altre.

Questa scoperta – continua il dottor Stephen Scherer – ha destato molto stupore in quanto si è sempre pensato che le varianti del DNA erano limitate prevalentemente a settori molto ristretti. I primi risultati infatti forniti dal Progetto Genoma Umano suggerivano una diversificazione tra il Dna di due esseri umani non superiore allo 0,1 per cento.

Il nuovo studio stravolge i precedenti dati indicando ben 255 regioni del genoma, che superano di gran lunga lo 0,1 per cento, in cui frazioni di Dna si manifestano in un numero differenziato di copie da persona a persona. Secondo i ricercatori, quando si manifestano oltre il 50 per cento di queste alterazioni si potrebbero verificare delle piccole differenze nei tratti somatici o nel comportamento e anche predisposizioni verso le patologie.

Questa sensazionale scoperta, che sarà pubblicata a settembre dal periodico “Nature Genetics” e inserita nel database pubblico Genome Variation Database, potrà fungere da importante risorsa per le ricerche nell'ambito della genetica clinica.

@Yoghurt@
00sabato 5 maggio 2007 21:48
altro....
Il clima dei dinosauri

di: Massimo Bertolucci


Quando i dinosauri dominavano la Terra, il clima del nostro pianeta era molto più caldo di oggi. Lo dicono i ricercatori dell'Università di Bristol, che sottolineano come le temperature degli oceani tropicali durante il tardo Cretaceo (69 - 64 milioni di anni fa) e l'Eocene (54 - 38 milioni di anni fa) fossero superiori ai 30 gradi.



I dati sono stati ottenuti esaminando i fossili di conchiglie raccolte in Tanzania e Messico e coincidono con risultati di precedenti ricerche che sottolineano come in quelle lontanissime epoche geologiche la quantità di anidride carbonica nell'atmosfera fosse più alta di oggi e dunque come il clima dell'intero pianeta fosse più caldo a seguito dell'effetto serra.

Fino a oggi, i ricercatori pensavano che ad essere più calde fossero solo le ragioni delle medie latitudini, ritenendo che le correnti oceaniche contribuissero ad aumentare la temperatura dei poli e ad abbassare quella dei tropici. A quanto pare, invece, era tutto il pianeta ad essere molto più caldo di oggi. La ricerca è pubblicata su Nature
@Yoghurt@
00sabato 5 maggio 2007 21:51
Altro....
L'evoluzione dei mammiferi

di: Anna Ermanni

Una collisione tra la Terra e una cometa, avvenuta 55 milioni di anni fa, potrebbe aver innescato una nuova fase nell'evoluzione dei mammiferi. È' quanto sostiene Dennis Kent, professore di Geologia alla Rutgers University, di Piscataway, Usa, giunto a questa conclusione dopo aver studiato dei sedimenti sulla costa orientale degli Stati Uniti. Sarebbe stato l'impatto con la cometa ad innescare quel processo di riscaldamento del pianeta che ha incoraggiato i mammiferi primitivi a disperdersi e a diversificarsi nei tre gruppi che vediamo ancora oggi: quello degli Artiodactyla (pecore, maiali, giraffe etc.) dei Perissodactyla (cavalli, tapiri, rinoceronti) e dei Primati, l'ordine dei mammiferi di cui fa parte l'uomo.

Questa separazione evolutiva coincide con i reperti geologici che segnano il confine tra l'epoca del Palaeocene e quella dell'Eocene. Si sa che a cavallo delle due epoche in meno di 1000 anni la temperatura del pianeta è salita di 6 gradi (massimo termico). Ciò rese il clima più adatto alla dispersione dei mammiferi attraverso i corridoi di terra tra i continenti e che la dispersione portò alla loro diversificazione. Quest'epoca coincide inoltre con il massiccio inserimento dell'isotopo del carbonio conosciuto come 12c nel ciclo terrestre del carbonio.

Secondo i ricercatori americani, sarebbe stato proprio l'impatto con la cometa ad introdurre la massiccia quantità di carbonio necessario ad un tale riscaldamento del pianeta e non la sola espulsione di gas provenienti dai fondali oceanici come precedentemente si credeva. Questa ricerca, pubblicata sulla rivista Earth and Planetary Science Letters è stata accolta con scetticismo dal geologo William Clyde, dell'Università del New Hampshire, che si è però detto pronto ad avviare nuove ricerche sui meccanismi che hanno provocato il massimo termico
@Yoghurt@
00sabato 5 maggio 2007 21:52
Altro....
Scorpioni antichissimi

di: Ester Capuano

In Scozia un ricercatore ha trovato tracce di uno scorpione d'acqua gigante vissuto 330 milioni di anni fa. Secondo uno studio, pubblicato dalla rivista “Nature”, le impronte sono la prova di come questi animali potevano vivere sulla terraferma. I ricercatori azzardano l'ipotesi che probabilmente questi animali erano all'epoca le creature più grandi che si aggiravano sul suolo terrestre.



Martin Whyte, ricercatore del dipartimento di geografia della University of Sheffield, ha trovato il fossile di un euripteride chiamato “hibbertopterus” nella regione Midland Valley situata in Scozia. Durante un intervista, il dottor Martin Whyte commenta il successo nella ricerca in cui si cercava di comprendere se gli euripteridi sapessero uscire dall'acqua.

Martin Whyte sostiene che lo scorpione d'acqua ritrovato aveva sei zampe era lungo un metro e mezzo e largo quasi un metro. Esaminando il passo si può intuire che stava strisciando e questo può supporre che stesse uscendo dall'acqua.

Questa è la versione 'lo-fi' del Forum Per visualizzare la versione completa clicca qui
Tutti gli orari sono GMT+01:00. Adesso sono le 10:22.
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com