Visualizzazione post con etichetta tecnologia. Mostra tutti i post
Visualizzazione post con etichetta tecnologia. Mostra tutti i post

sabato 21 dicembre 2013

Cronistoria della Fusione Fredda

Com’è noto ai meglio informati, uno dei tanti metodi per produrre energia “alternativa” in modo pulito e conveniente è avvalendosi della fusione nucleare debole che, a differenza della normale fissione, NON utilizza né produce sostanze radioattive ed è riproducibile anche in impianti di dimensioni tanto ridotte da poter essere facilmente trasportati in prossimità del luogo di utilizzo. Questo significa che un ulteriore vantaggio della fusione fredda sulla fissone è che può fare tranquillamente a meno di grossi elettrodotti evitando il loro impatto ambientale, il loro costo e la perdita di energia che avviene durante il suo trasporto (mediamente il 30%).
Per quanto riguarda questa forma di energia, ci troviamo a cavallo tra la seconda e la terza fase prevista da Schopenhauer per ogni nuova verità: la Fusione Fredda infatti è stata prima ridicolizzata, poi violentemente contrastata ed ora alcuni enti ufficiali, tra cui la NASA, l’ENEA  e nientemeno che la Marina Militare degli Stati Uniti, hanno cominciato ad ammettere non solo che funziona, esattamente come hanno sempre dimostrato i suoi pionieri ma che conviene anche. Tra un po’ sarà accettata dal dominio pubblico come “evidente”… .
Conoscendo i metodi “di contrasto” del Sistema per evitare che qualcosa possa minacciare il mantenimento dello Status Quo, ci accorgiamo che per la FF sono stati applicati tutti: dal discredito alla distruzione delle carriere, dall’intimidazione all’omicidio. Ma ancora una volta, la verità è venuta faticosamente ed inesorabilmente a galla nonostante i tentativi di affossamento.
Gli interessi che girano attorno alla fissione sono enormi e non solo di natura economica apparente: l’affare più grosso e sottaciuto deriva infatti dalla produzione di plutonio come elemento di risulta della reazione. Questo elemento è utilizzabile unicamente per la costruzione di ordigni bellici ma tanto è già sufficiente a giustificare il ricorso ad una forma così (altrimenti) sconveniente di produzione dell’energia. In effetti, l’elettricità prodotta nelle centrali a fissione costituisce solo un parziale recupero energetico permesso dall’acqua surriscaldata dalla reazione, a fronte di costi per altro inaccettabili.
Le centrali a fissione infatti necessitano di costosissime progettazioni, realizzazioni, sorveglianze ed enormi costi di “smaltimento” ma più esattamente di occultamento delle scorie radioattive, affare com’è noto in mano alla fazione del Sistema da esso stesso definita “Criminalità Organizzata”.
Nell’attesa di veder definitivamente smantellati tutti gli obsoleti e vetusti impianti a fissione, mi sembra utile ricordare, in ordine cronologico, le principali vicende che hanno caratterizzato fino al 2012 la tecnologia della Fusione Fredda.
·         30 marzo 1974 – Il chimico Omero Speri deposita a suo nome il brevetto 1024274 Produzione energia termonucleare controllata dell’idrogeno e i suoi isotopi. Alla costruzione del prototipo funzionante collaborò il suo amico Piero Zorzi ed insieme cercarono di proporre e divulgare questa nuova tecnologia sufficiente da sola ad emanciparsi dalla dipendenza dai carburanti fossili. Da subito furono forzosamente “invitati” a rivolgersi ad enti esteri e dopo un misterioso viaggio in Israele e senza dare spiegazioni, abbandonarono per sempre il loro progetto.
·         23 marzo 1989 – Gli elettrochimici Martin Fleischmann dell’Università di Southampton e Stanley Pons dell’Università dello Utah, spiegarono in conferenza stampa che era possibile ottenere energia pulita a costi irrisori mediante un semplice procedimento elettrochimico capace d’innescare reazioni di fusione nucleare a bassa temperatura. Pochi mesi dopo lo storico annuncio, le loro carriere furono distrutte attraverso una campagna denigratoria e furono costretti a ritirarsi a vita privata.
·         1991 – L’autorevole fisico del Massachusetts Institute of Technology Eugene Mallove dichiarò pubblicamente che la relazione decisiva sulla fusione fredda era stata inspiegabilmente manipolata dai ricercatori dello stesso istituto; per protesta si dimise dal MIT.
·         1997Un gruppo di ricercatori di Cincinnati riuscì a trasmutare completamente 100mg di nitrato di torio, generando elementi non radioattivi e di massa inferiore come rame e titanio. La sperimentazione si svolse impiegando una cella elettrolitica tenuta a 130°C ed a 3atm, elettrodi di zirconio e corrente alternata ad appena 50Hz, frequenza delle reti domestiche. Tali risultati furono successivamente ripetuti con successo dal ricercatore Francesco Celani del INFLN-LN di Frascati confermando così la possibilità fisica di rendere inerti le pericolose scorie prodotte dalle centrali a fissione.
·         1998 – Dopo anni di sperimentazione condotta in Giappone, gli scienziati Yoshiaki Arata e Zhang Yue-Chang riscontrano un notevole eccesso di energia durante una sperimentazione  durata ben 12 giorni ma condotta utilizzando forti pressioni.
·         1998 – I ricercatori giapponesi Tadayoshi Omori e Tadahiko Mizuno della Hokkaido University mettono a punto un metodo di Fusione Fredda elementare e riproducibile al 100% utilizzando solo due elettrodi di tungsteno immersi in una soluzione di carbonato di potassio in acqua distillata come elettrolita ed una tensione variabile tra i 160 ed i 300V.
·        1999 – Eugene Mallove pubblica l’eloquente libro inchiesta Fire from Ice in cui denuncia la deliberata soppressione dei risultati ottenuti con la sperimentazione dal MIT e da parte di altri gruppi di potere accademici.
·         10 aprile 2002 – Martin Fleishmann in visita ai laboratori di fisica nucleare dell’ENEA di Frascati si complimenta con Carlo Rubbia per i risultati ottenuti da Giuliano Preparata ed il suo team che confermavano la ricerca da lui pubblicata nel 1989.
·         febbraio 2002Il laboratorio di San Diego CA della Marina USA pubblica il rapporto 1862 di una sperimentazione durata dal 1989 nel 2002 e che conferma i risultati ottenuti da Fleishmann e Pons.
·         2002 – Il rapporto 41 stilato da ricercatori ENEA attestò sia il guadagno di energia che la trasmutazione della materia che avvenivano con la fusione fredda Fleishmann-Pons. Il risultato, conseguito da Giuliano Preparata, Antonella De Ninno, Antonio Frattolillo ed Emilio Del Giudice nel corso di sperimentazioni avviate nel 1999, fu insabbiato per opera dello stesso istituto, fu tolto loro il progetto e non ottennero nessun riconoscimento per il lavoro svolto. Lo stesso Carlo Rubbia si rese irreperibile dopo aver inizialmente appoggiato il progetto. Il rapporto della rivoluzionaria sperimentazione fu inviato alle prestigiose riviste Science e Nature, ma mai pubblicato.
·         14 maggio 2004 – Eugene Mallove fu massacrato a bastonate e gli inquirenti archiviarono il caso come tentativo di rapina. Questo è il potere.
·         24 aprile 2009 – Va in onda su CBS News un servizio di 60’ realizzato dal giornalista Scott Pelley nel quale fa luce sulla reale natura della Fusione Fredda. Nel corso del servizio, il fisico elettrochimico Michael McKubre afferma di aver ottenuto risultati a dir poco straordinari – ma sistematicamente ignorati - nel corso di vent’anni di sperimentazione; il ricercatore indipendente Robert Duncan, inizialmente scettico sulla reazione fu costretto a cambiare radicalmente idea dopo aver osservato una sperimentazione condotta da un laboratorio israeliano. L’esito della verifica fu però completamente disatteso dal  fisico accademico Richard Garwin avvalendosi del sofisma “Se non capiamo come funziona, allora è inutile.”
·         28 febbraio 2010 – Sul Journal of Nuclear Physics viene pubblicato un articolo in cui l’ingegnere Andrea Rossi ed il fisico Sergio Focardi annunciano il loro imminente brevetto di un reattore a fusione fredda ad alto rendimento energetico, il noto E-Cat.
·         2012la NASA ammette il proprio programma di sviluppo di motori a Fusione Fredda.


Per la redazione di questo articolo ci si è avvalsi del libro ESPERIMENTI SCIENTIFICI NON AUTORIZZATI di Marco Pizzuti - EDIZIONI IL PUNTO D'INCONTRO

giovedì 20 dicembre 2012

Antigravità, gravità artificiale, acqua, cibo ed energia illimitata per i viaggi spaziali con la tecnologia Keshe

Antigravità, gravità artificiale, creazione di qualsiasi tipo di materia "dal nulla" compresi acqua, cibo, nanomateriali ed energia in modo da poter affrontare viaggi spaziali di durata infinita, non più condizionati dal carico di scorte. Possibilità di curare qualsiasi tipo di malessere o malattia senza farmaci e senza l'intervento diretto di medici.

Rovescio della medaglia, la stessa tecnologia potrebbe venir utilizzata per la fabbricazione di armi dal potere pressoché illimitato. Per questo è necessario condividerla a livello planetario in modo che nessuno (stato o individuo che sia) possa avere la supremazia sull'altro: in poche parole, il sogno di Tesla.

Direttamente dalle parole del suo ideatore:


mercoledì 19 dicembre 2012

Tecnologia Keshe: il futuro è oggi, basta volerlo

Non è certo la prima e molto probabilmente non sarà l'ultima tecnologia ESISTENTE che i gruppi di potere dell'energia (e non solo) cercheranno di ostacolare con tutte le loro forze ma questa volta sembra che i suoi fautori si siano mossi nel modo giusto per evitare insabbiamenti.
Tanti inventori visionari e rivoluzionari sono stati infatti messi per tempo nell'impossibilità di "nuocere" al Sistema, o con proposte che non potevano rifiutare, semplicemente assassinati o fatti scomparire.
Uno per tutti Tesla, L'Uomo Che Inventò Il Futuro ma che non riuscì a farne beneficiare tutta l'umanità come avrebbe voluto: tecnologie derivanti dalle sue scoperte più "innocue" le utilizziamo tutti i giorni, quelle più sconvolgenti sono segreto appannaggio di ristrette elite governanti o militari.
 
Una tecnologia RISOLUTIVA che potrebbe cambiare il corso della storia se manterrà le sue promesse e riuscirà ad emergere.
 Nucleare tradizionale e petrolio addio, è stato solo un brutto sogno. 
 

venerdì 17 agosto 2012

Ufficiale la nocività delle radiazioni da telefoni cellulari


Non è certo una novità per chi ha cercato di informarsi autonomamente sulla faccenda ma dopo molti anni di dibattito sui rischi per la salute derivanti dai telefoni cellulari, un recente rapporto finalmente fornisce delle risposte.
Il rapporto completo è stato presentato di recente al Dipartimento di Telecomunicazioni dal Prof Girish Kumar del dipartimento IIT di Bombay di ingegneria elettrica. Kumar, che ha svolto approfondite ricerche sulle radiazioni del telefono cellulare e i suoi effetti, mette in guardia contro l'uso eccessivo dei telefoni cellulari perchè espone gli utenti ad un aumento del rischio di cancro, tumore al cervello e di molti altri rischi per la salute. Per i bambini la cosa è ancor più accentuata.

I principali rischi per la salute derivanti dalle radiazioni dei telefoni cellulari e dai ripetitori sono i seguenti:
  • Un aumento del 400% del rischio di cancro al cervello tra gli adolescenti che usano per i telefoni cellulari. I bambini sono più vulnerabili alle radiazioni dei cellulari. Più piccolo è il bambino, tanto più profonda è la penetrazione della radiazione elettromagnetica perché il cranio dei bambini è più sottile.
  • Un eccessivo uso dei telefoni cellulari può provocare il cancro a chiunque. L'uso dei cellulari per più di 30 minuti al giorno per 10 anni aumenta il rischio di cancro al cervello e neuroma acustico.
  • La radiazione dei cellulari provoca danni irreversibili alla fertilità maschile. Gli studi hanno scoperto un conteggio inferiore del 30% nel liquido seminale degli utenti che fanno uso intensivo di telefoni cellulari.
  • Le frequenze utilizzate dai cellulari possono causare danni al DNA delle cellule del corpo. La radiazione provoca la formazione di 'formazioni di radicali liberi' all'interno delle cellule; tali radicali sono notoriamente cancerogeni.
  • Le frequenze dei cellulari interferiscono con il corretto funzionamento di altri dispositivi salvavita, inclusi gli impianti di pace-maker, e possono, quindi, provocare la morte improvvisa.
  • L’esposizione ai cellulari può scatenare la risposta allo stress nelle cellule umane e animali e provocare la produzione di proteine da stress. Questa è una prova sufficiente del fatto che l'organismo riconosce la radiazione dei telefoni cellulari come potenzialmente nociva.
  • I campi elettromagnetici generati dai telefoni cellulari e dalle cellule dei ripetitori debilita il sistema immunitario e stimola risposte allergiche \ infiammatorie, comprese eruzioni cutanee, piaghe, sensazione di oppressione e lesioni.
  • Le persone che utilizzano i telefoni cellulari per più di 30 minuti al giorno per più di quattro anni sono a rischio più elevato di perdita dell'udito. La radiazione dei telefonini può causare tinnito e danneggiare le cellule ciliate presenti nell'orecchio interno. Una volta danneggiate, queste cellule non possono più rigenerarsi.
  • L’uso frequente dei telefoni cellulari può danneggiare il sistema visivo in molti modi. Le frequenze dei cellulari (900, 1800 MHz e 2450 MHz), danneggiano le cellule epiteliali e aumentano la temperatura all'interno dell'occhio.
  • Le emissioni dei cellulari indeboliscono le ossa e possono causare un deficit dei livelli di melatonina, un antiossidante potenziatore del sistema immunitario.
  • Un aumento del rischio di tumore delle ghiandole salivari è legato all'uso dei telefoni cellulari.
  • L’esposizione ai campi elettromagnetici può causare disturbi del sonno e malattie neurodegenerative come l’Alzheimer e il morbo di Parkinson.
  • A causa del rumore elettromagnetico di fondo, le api e gli uccelli diventano disorientati e non possono tornare negli alveari e nei nidi. Ci sono effetti nocivi per animali, piante e l’ambiente.

Importanti raccomandazioni (pdf):

Fonte: ECplanet

martedì 10 luglio 2012

Irrorazioni aeree e mutazioni genetiche indotte

In articoli come “Mutanti”, “La questione silicio”, “Scie chimiche e homo novus”, “Morgellons: singolari correlazioni”, avevamo già affrontato il tema dell’ibridazione genetica che risulta essere uno degli obiettivi precipui delle operazioni chimico-biologiche. Pubblichiamo ora una ricerca molto avanzata, tratta dal libro “Uomini o dei?”, in cui è indagato tale inquietante risvolto. Lo studio, le cui conclusioni, a nostro parere, sono plausibili, è la riprova che le ipotesi formulate tempo fa trovano delle precise corrispondenze, dei significativi riscontri, purché si intenda investigare senza pregiudizi. Ringraziamo l'amico TheAntitanker per la preziosa segnalazione.

Da qualche decennio è in atto un’operazione d'irrorazione tramite aerei privi di insegne (ma anche per mezzo di velivoli non identificabili come aerei) e sorvolanti zone al di fuori d’ogni rotta, di ampie porzioni di cielo, tramite una sostanza biancastra che a prima vista è confondibile coi gas di scarico. Tale scia (persistente o meno, n.d.r.) si espande e riempie nel giro di qualche ora vaste porzioni di cielo. Talvolta i velivoli agiscono in gruppo, disegnando varie forme geometriche (anche circolari) e spesso griglie. Le autorità bollano tutto come fantasie, mentre alcuni studiosi indipendenti, analizzando la composizione chimica di tali scie, hanno rinvenuto elementi più o meno tossici all’inalazione come alluminio, bario e silicio.

Scopi dell’irrorazione sembrano essere aumentare la conducibilità e, contemporaneamente, ridurre l'umidità atmosferica per facilitare le trasmissioni militari, influire negativamente sul metabolismo umano per portare utili alle multinazionali farmaceutiche e tentare di controllare il clima.
Il motivo principale, però, sarebbe ibridare l’uomo. Il silicio sarà trattato più avanti, mentre i motivi per cui sono impiegati il bario e l’alluminio sono chiariti di seguito. Il bario è un metallo molle di colore bianco argento che non si trova mai puro in natura a causa della sua forte reattività con l'ossigeno dell’aria e con l'acqua. All'aria rapidamente si ossida trovandosi comunemente sotto forma di ossido di Bario (BaO).

Si definisce idratazione l'interazione fra l'acqua ed una sostanza disciolta in essa, per cui si può disciogliere Ba in atmosfera (dove si trova l’acqua sotto forma di vapore acqueo), idratando quindi Ba e ottenendo idrossido di bario Ba(OH)2. La formula della reazione è Ba+2(H2O) -> Ba(OH)2+H2. L’idrossido di bario è esattamente il composto riscontrato nelle scie chimiche.

Le formule degli idrossidi sono sempre caratterizzate dalla presenza di uno o più raggruppamenti OH (gruppo ossidrile), che presenta una valenza pari a 1. La formula di un idrossido è sempre costituita da un solo atomo di metallo (in questo caso Ba) seguito da tanti raggruppamenti OH quant'è la valenza del metallo (che è 2), per cui l’idrossido di Bario Ba(OH)2 ha valenza -2, tendendo quindi a legarsi a 2 atomi di H per originare 2 molecole d’acqua, il che lo rende una base molto forte. A temperatura ambiente si presenta come una massa cristallina bianca semitranslucida inodora, molto caustica e tossica.
-
Effetto d’iridescenza dato dal Ba(OH)2.
-
Dato che è una delle basi più forti, l’idrossido di bario può essere usato in una idrolisi alcalina (o basica che dir si voglia). I perossidi sono composti chimici contenenti il gruppo caratteristico formato da due atomi di ossigeno uniti da un legame covalente semplice (legame O-O). Essi contengono un atomo di ossigeno in più rispetto agli ossidi corrispondenti: infatti il legame covalente tra i due ossigeni crea una sorta di competizione tra le nuvole elettroniche dei due ossigeni, portante il loro numero di ossidazione da -2 (numero di ossidazione dell'ossigeno nella quasi totalità dei suoi composti) a -1. Il più comune di essi è il perossido di Idrogeno, meglio noto come "acqua ossigenata", di formula H2O2, della quale è ben nota l'aggressività in quanto potente disinfettante per uso esterno pur in concentrazione bassa. Il perossido (o biossido) di Bario ha formula BaO2.

L'alluminio puro in polvere è facilmente infiammabile all'aria e molto reattivo in acqua, con produzione di Idrogeno. Esso entra nel metabolismo cerebrale provocando l’Alzheimer e demenza precoce.

Nelle scie chimiche riscontriamo prevalentemente idrossido di bario, alluminio, composti organici e silicio, che svolgerebbero le operazioni di modifica dell’R.N.A. con creazione di un aggancio esterno e di modifica del D.N.A. con innesto di silicio.

Analizzando la parte dell’agroglifo di Chilbolton che riguarda un presunto D.N.A. anomalo, si nota il filamento a sinistra che presenta 6 coppie per giro, diversamente da un filamento standard che ne presenta 10. La rappresentazione spaziale di tale filamento si giustifica, se esso è polimerizzato in 2’5' diversamente dal normale 3’5’. Il D.N.A. non può esistere in tale forma perché il suo zucchero (deossiribosio) manca dell’O in posizione 2’ necessario per procedere all’idrolisi alcalina e quindi per ottenere il legame 2’5’. Il filamento è quindi un R.N.A. alternativo al 3’5’, che chiamerò RNA 2’5’.
Talune ricerche pubblicate mostrano che un RNA2’5’ formerà una doppia spirale, ma tende a rimanere a filamento singolo. Altre ricerche investigano l’uso di RNA2’5’ come agente antivirale. Ricordo che gli esperimenti sull’origine della vita condotti da Leslie Orgel negli anni ‘80 del XX secolo indicarono che l’R.N.A. polimerizza sovente in due forme differenti, vale a dire 2’5’ e 3’5’, e non esistono certezze sul motivo per cui la forma 3’5’ sembra prevalere.

Il RNA2’5' potrebbe rappresentare un’alternativa all’RNA3’5’ o al D.N.A. esistente sulla Terra. Gli acidi nucleici 2’5’ sono menzionati raramente nella letteratura e da nessuna parte è riportato che formano una spirale a filamento singolo con 6 basi per giro.

 


La logica alla base dell’intervento genetico è quella di fornire un aggancio esterno alla genetica, per cui occorre un R.N.A., perché esso può polimerizzare sia in forma 2’5’ che 3’5’ e quindi è in grado di fornire un’entrata/uscita. Il suo zucchero (il ribosio) ha cioè due mani disponibili in corrispondenza del carbonio in posizione 2’ e 3’, diversamente dal D.N.A. che dispone del solo carbonio in 3’. Nell’ R.N.A. il carbonio in 3’ è quello esterno alla struttura e per questo candidato a fungere da link, mentre il carbonio in 2’ garantirà la struttura del filamento. Occorre quindi idrolizzare alcalinamente l’R.N.A., mentre il D.N.A. può mantenersi, originando così una struttura ibrida formata da un filamento di D.N.A. normale e uno di R.N.A. modificato, che è quanto si riscontra nell’agroglifo di Chilbolton.

L’idrossido di Bario BA(OH)2 opera l'idrolisi alcalina della catena R.N.A. ottenendo appunto un R.N.A. 2'5', dopodiché rimane il bario in forma pura non assimilabile dall'organismo che viene espulso.

L'alluminio reagisce con l'acqua della reazione idrolitica, fornendo Idrogeno che si combina col gruppo OH in posizione 3' lasciando scoperto il C in 3’.

Ora al C3' un enzima apposito (il materiale genetico rinvenuto nelle scie chimiche) fissa il silicio in un legame SiC al carburo di silicio o carborundum ed un ulteriore idrogeno completa la valenza del silicio, rendendolo stabile.

Il risultato è C3'-Si-H.

In pratica il C2' serve alla polimerizzazione, mentre il C3' serve ad un eventuale collegamento esterno in tre modalità differenti:

1) si può adescare H, avendo a disposizione Si con 3 legami;
2) si può usare Si così com'è, in quanto ha valenza 4 (in figura sono evidenziate le possibili ulteriori valenze);
3) si può attuare una vulcanizzazione perossidica a temperatura ambiente (quella del corpo umano!), dove l’alluminio svolge la funzione di catalizzatore metallico come sostituto di stagno o platino, tra il SiH dell’R.N.A. ed un polimero siliconico.

Probabilmente si possono usare più modalità contemporaneamente per collegare una strumentazione esterna (nanorobot, computers, interfacce), trasmettere/ricevere tramite il silicio (onde radio, localizzazione satellitare), caricare informazione genetica con un viron (per modificare il D.N.A. normale oppure intervenire geneticamente in qualsivoglia maniera, come prospettato nel nanocomputer molecolare di Shapiro dove si può associare informazione genetica all’R.N.A.).

È’ da tener presente che già un R.N.A. generico, per sua natura instabile a causa del doppio ossidrile in C2’ e in C3’, può funzionare bene, quando esegue gli ordini del D.N.A. senza variazioni; interpretare gli ordini del D.N.A. in maniera errata (cioè incontrollata); causare la rottura della catena stessa dell’R.N.A. e quindi autodistruggersi, aprendosi nei suoi filamenti. Se ne deduce la possibilità d’uso come arma biologica già in forma non modificata e l’intervento esposto rende bene l’idea del possibile uso da parte di un’élite scientifico-militare.

L'argomento non è stato trattato, ma anche i cibi O.G.M. potrebbero giocare un ruolo non secondario nel programmare il D.N.A. con istruzioni note solo agli artefici.

Per quanto riguarda il D.N.A., l’idrossido di bario BA(OH)2 denatura il D.N.A. (cioè separa i due filamenti) e depolimerizza la singola catena (cioè la interrompe), idrolizzando (cioè acquisendo atomi di H che si combinano con la sua doppia valenza OH, generando acqua). A seguito della denaturazione (la separazione dei filamenti), uno dei filamenti può accoppiarsi con l’R.N.A. modificato.

L’azione dell’idrossido può essere fatale per il D.N.A. e questo sembra non auspicabile per i manipolatori, ma comunque si gioca coi grandi numeri e l’importante è che si abbia un qualche risultato. Tutto questo non è compiuto in laboratorio con campioni certi, dosaggi certi e controllando minuziosamente la reazione, ma è eseguito sul campo tramite le scie chimiche dove tanti sono i fattori difficilmente controllabili che intervengono. Pur tuttavia vi sono delle condizioni necessarie da soddisfare.

L’idrossido di bario è un ossidante talmente potente che, a contatto con D.N.A./R.N.A., tende a distruggerli. Porto ad esempio un altro potente ossidante, il perossido d’Idrogeno comunemente chiamato acqua ossigenata. Questa nelle tecniche cosmetiche tricologiche aggredisce la cheratina del capello rendendolo biondo, mentre molto diluito serve come disinfettante.

Così l’idrossido di bario viene grandemente rarefatto quando precipita al suolo a seguito d’irrorazione con le scie chimiche ed il suo effetto è diluito in modo tale che può agire sull’R.N.A. e magari risparmiare il D.N.A., oppure distruggere malauguratamente il D.N.A., senza provocare la morte istantanea dell’organismo. Il suo è cioè un effetto incisivo ma blando quanto basta.

Il problema maggiore si pone nei riguardi dell’alluminio perché esso, diversamente dal bario, si accumula nell’organismo e lo sottolinea il verificarsi di sindromi ad esso collegate.

Non tutti gli acidi nucleici subiscono l'inserzione di silicio, inserzione che forse non è necessaria o auspicabile; questo viene eseguito convenientemente dall'enzima.

Ipoteticamente la struttura in esame D.N.A./R.N.A. 2’5-Si si riprodurrebbe attraverso una fase di duplicazione nella quale i due filamenti si dividono. Il filamento D.N.A. in un processo di trascrizione crea un filamento R.N.A. uguale a sé stesso, cioè un R.N.A. normale che può essere successivamente manipolato. Il filamento RNA2’5’-Si, secondo un processo di trascrizione inversa, si accoppia con un filamento D.N.A., fornendogli la propria informazione, contrariamente a quanto succede nella trascrizione dove è il D.N.A. a fornire l’informazione per la creazione di un nuovo filamento.

Il risultato è di nuovo la struttura DNA/RNA2’5’-Si.

Una conseguenza di tutto questo potrebbe essere la sindrome di Morgellons (più diffusa in quei paesi, come gli Stati Uniti d’America, in cui il consumo di cibi transgenici è maggiore, n.d.r.).


Studio tratto dal libro:
Uomini o dei?

Integralmente tratto da Tanker Enemy

domenica 8 luglio 2012

Il potenziale inespresso della Geotermia in Italia


Un maggiore sviluppo della geotermia, la risorsa energetica rinnovabile che sfrutta fonti geologiche di calore, potrebbe portare risparmi per 10mld di euro alla bolletta petrolifera italiana. Di questi, circa la metà andrebbero alla produzione di elettricità.
Uno scenario in cui si potrebbe arrivare spingendo di più su nuove tecnologie per lo sfruttamento delle risorse geotermiche ad alta temperatura. E l’obiettivo non e’ visionario. Nel nostro Paese, infatti, la geotermia conta risorse per 500 Mtep (milioni tonnellate equivalenti petrolio), pari a 2,5 volte i consumi annui nazionali di eletricità, che amontano a 185 Mtep, eppure di questa fonte rinnovabile ne usiamo appena il 3% coprendo solo il 7% dei consumi annuali.
I dati sono emersi nel corso del convegno “Possibile contributo della geotermia di alta temperatura per la produzione di energia elettrica in Italia, fino al 2050, con l’uso di tecnologie alternative”, promosso oggi a Rona, nella sede del CNR, da SIGeA (Società Italiana di Geologia Ambientale) e UGI (Unione Geotermica Italiana).
“Con la geotermia il nostro Paese potrebbe davvero aprire scenari energetici importanti, perché è tra le risorse rinnovabili la sola che presenta caratteristiche di continuità assoluta e che ha un potenziale enorme in Italia” afferma all’Adnkronos Giancarlo Passaleva dell’Ugi che, insieme ai ricercatori ed esperti intervenuti al convegno, lancia un appello al Governo: “Basterebbero 400 mln di euro per sviluppare nuove tecnologie e far decollare la geotermia come fonte di produzione di elettricità".
“La geotermia è un potenziale energetico rinnovabile che è stato finora utilizzato solo in maniera modesta nel nostro Paese, sia per produrre energia elettrica che - continua Passaleva - per usi diretti del calore”. La produzione di energia elettrica da fonte geotermica, ricorda l’esperto, “...è stata avviata in Italia, primo Paese al mondo, fin dagli inizi del ’900 a Larderello in Toscana”. “Da allora - continua - l’impiantistica si è ovviamente sviluppata e, soprattutto negli ultimi 20 anni, la costruzione di nuove centrali, la ristrutturazione di impianti preesistenti, nonché l’ammodernamento della tecnica di perforazione dei pozzi e di gestione del serbatoio geotermico, hanno contribuito a far crescere l’energia elettrica prodotta fino ai valori attuali, pari a circa 5,3 mld di kWh all’anno, un pò meno del 2% della produzione elettrica nazionale e circa il 25% del fabbisogno elettrico della Toscana”. “Fino ad oggi però - afferma ancora Passaleva - il geotermico di alta temperatura viene utilizzato, come anche negli altri Paesi geotermici del mondo, limitatamente ai sistemi idrotermali, che sono scarsamente diffusi, per le loro peculiari condizioni geomorfologiche”. L’esponente dell’Ugi ricorda anche che esistono peraltro sistemi geotermici cosidetti ‘non convenzionali’, di enorme potenziale produttivo, presenti nel nostro Paese. “Si tratta - spiega Passaleva - di sistemi a ‘rocce calde secche’, sistemi ‘magmatici’, sistemi ‘geopressurizzati’, sistemi a ‘fluidi supercritici’, sistemi a ‘salamoie calde’”. Uno scenario che apre panorami energetici importanti per l’Italia.
Secondo i ricercatori e gli esperti presenti al convegno di oggi [articolo dell'8 giugno, N.d.R.], per l’Italia, con l’utilizzo di sistemi non convenzionali, si apre un’ipotesi di sviluppo della risorsa geotermica, entro il 2050, di almeno un ordine di grandezza superiore al presente di 10.000 MW a fronte degli 880 MW attuali e 60 mld di kWh/anno a fronte dei 5,3 attuali. “Ciò comporterebbe - aggiunge Passaleva - un risparmio annuo di oltre 10 mln di tonnellate equivalenti petrolio, per un valore, a costi attuali, di circa 6mld di euro, nonché minori emissioni di CO2, pari a circa 36 mln di tonnellate”.
Ma la condizione indispensabile perché queste prospettive si realizzino, secondo gli esperti è che si faccia “...un grande sforzo condiviso dal mondo della ricerca, dell’industria ma, soprattutto, dal Governo del Paese, per la realizzazione di un’importante progetto finalizzato di ricerca e sviluppo nell’ambito dei sistemi geotermici non convenzionali esistenti sul territorio nazionale e che, con un costo stimabile di 400 mln di euro, aprirebbe enormi prospettive di sviluppo di una risorsa naturale, con ricadute estremamente positive sotto il profilo economico, ambientale e sociale”.
Intanto non mancano nel nostro Paese esempi di come la geotermia sia già una realtà. La nuova sede della Regione Milano, ad esempio, è completamente climatizzata con la geotermia ricavata in loco, così come il nuovo impianto Ikea di Parma e quello di Corsico, vicino Milano. Inoltre, le società distributrici di energia A2A di Milano e Hera a Ferrara riscaldano con la geotermia 30.000 abitazioni. Mentre è allo studio un progetto della società Eurobuilding per sfruttare l’energia geotermica del vulcano sottomarino Marsili che ha un bacino termico esteso per 2.100 km quadrati al largo tra la Sicilia e la Calbria. Un bacino che potrebbe riscaldare l’intera città di Palermo.

- integralmente tratto da MeteoWeb
- trasformazione degli apostrofi in accenti a cura di Doc Anthropos, in nome della conservazione e della salvezza della lingua italiana

Nota di Doc Anthropos: la citazione riguardo le emissioni di CO2 è significativa ai fini propagandistici dell'idea ma del tutto irrilevante ai fini ambientali non costituendo, le emissioni di CO2 derivanti da attività antropiche, un serio problema ambientale.

martedì 5 giugno 2012

Impatto da OGM, malefatte della Monsanto e rimedi possibili

"Il mondo secondo Monsanto", pubblicato da Arianna Editrice, è un libro inchiesta sulla multinazionale degli OGM che ha fatto il giro del mondo. Oltre 100.000 copie vendute e traduzioni in 11 paesi.

E' stato scritto da Marie-Monique Robin che ha vinto il Premio Albert-Londres, il più prestigioso della stampa francese (1995). Giornalista, scrittrice e regista, è autrice di molti documentari che le sono valsi diversi riconoscimenti internazionali e di documentari ripresi in America Latina, Africa, Europa e Asia.

L'autrice ha condotto per tre anni importanti ricerche che l'hanno portata in America, Europa e Asia, a scoprire la poco nota storia dell'azienda Monsanto.

Avvalendosi di documenti inediti, delle testimonianze delle vittime, di scienziati e di uomini politici, il libro ricostruisce la genesi di un impero industriale che, grazie a una comunicazione menzognera, a rapporti di collusione con l'amministrazione nord americana, a pressioni e tentativi di corruzione, è divenuta la prima azienda al mondo produttrice di semi.

Il testo svela inoltre il ruolo giocato da Monsanto nell'estensione planetaria delle colture OGM, senza che ci sia stato alcun controllo serio relativo ai loro effetti collaterali sulla natura e sulla salute umana.

Il documentario analizza la questione degli OGM e dei brevetti sulle sementi geneticamente modificate e sui fertilizzanti chimici prodotti dalla multinazionale americana, che attualmente possiede il 90% degli OGM presenti nel mondo . Non solo: grazie alle testimonianze degli agricoltori e agli autorevoli interventi di esperti come Vandana Shiva, il film mostra l'innumerevole serie di cause che coinvolgono la Monsanto, già condannata per negligenza, frode, attentato a persone e cose, disastro ecologico e sanitario e utilizzo di false prove.

L'azienda, che si autodefinisce fautrice della "scienza della vita", propone una propria filosofia secondo cui gli OGM sarebbero l'unico modo per nutrire i sei miliardi di persone presenti sulla Terra creando, allo stesso tempo, sementi sterili che vanno riacquistate ogni anno e resistenti ai soli erbicidi prodotti dalla Monsanto con l'unico scopo di non perdere il primato mondiale nel mercato.

Concludiamo con le parole di Carlo Petrini, fondatore di Slow Food: " Nelle campagne del mondo ci vogliono uomini, non multinazionali. Il cibo deve essere prodotto per essere mangiato, e non solo per essere venduto. Ne va della sovranità alimentare dei popoli; ne va della nostra libertà. Non ci è dato sapere quali saranno in futuro gli effetti degli OGM sulla salute dell'ambiente e delle persone, ma per ora è certo che essi sono di proprietà di multinazionali che mirano a controllare il nostro cibo su scala globale, per vendercelo alle loro condizioni. Il Mondo secondo Monsanto ci fa capire di più su questi processi perversi, e ci mette in guardia sul futuro del cibo".

Il mondo secondo Monsanto, da YouTube:


venerdì 25 maggio 2012

Terremoto in Emilia di probabile origine artificiale

Foto emblematica scattata sotto un cielo di scie chimiche

In una zona non a rischio sismico ma notoriamente soggetta a sfruttamento di risorse fossili, si era inizialmente pensato ad un fenomeno di fraking ma qualcuno ha notato che anche nel caso del recente sisma emiliano, c'è una significativa corrispondenza di andamento tra le variazioni dell'attività HAARP e quelle delle onde sismiche che hanno caratterizzato l'evento.
Quindi, alla luce di quello che si sa sullo stato dell'arte della geoingegneria, è praticamente certo che il terremoto sia d'origine artificiale.

Di seguito, degli utili link di approfondimento:

 - Il governo USA è responsabile del terremoto in Emilia

- Terremoti artificiali in Italia

- Possedere il clima mediante HAARP

- Cause artificiali dei terremoti

- Possibilità che gli ultimi terremoti e tsunami siano d'origine naturale

- I terremoti artiuficiali secondo Rosalie Bertell 

aggiornamento del 30 maggio:
inutile replicarlo in questa sede, è interessante consultare direttamente dal suo sito, il corposo articolo del fisico Corrado Penna sullo stesso argomento:
=> http://scienzamarcia.blogspot.it/2012/05/da-cosa-e-stato-causato-il-terremoto-in.html

mercoledì 16 maggio 2012

Elettronica: progettare per la discarica

Produrre per la discarica può sembrare folle ma ha perfettamente senso in un sistema che può funzionare solo se offerta e domanda crescono indefinitamente.
Il problema è che il mondo e le sue risorse non sono infinite, per cui il sistema è destinato prima o poi a collassare.

Non è storia recente: le prime lampadine avevano il difetto commerciale di non fulminarsi e allora furono riprogettate per avere una durata limitata.
L'obsolescenza programmata, i bisogni imposti dal mercato, l'impatto ambientale causato dai rifiuti elettronici.
Doppiato in italiano:

martedì 15 maggio 2012

La produzione di energia da fotosintesi ha il difetto di costare troppo poco

La foglia sintetica del MIT sopra una naturale

Ce l’hanno fatta! Al MIT di Cambridge, Mass., USA, sono riusciti a creare la prima foglia artificiale, in grado di imitare la meravigliosa fotosintesi. Una vera rivoluzione per il futuro dell’energia.

Ciò che è veramente strano è che nessuno ne abbia ancora parlato. Sono parecchi mesi che la ricerca era a conoscenza dei giornali e non solo. Forse che, in fondo, nessuno vuole realmente produrre energia a basso costo e in modo semplice? Pensare che anche le nazioni più povere arrivino al livello del cosiddetto “mondo civile” spaventa qualcuno? Temo proprio sia così. Comunque la notizia è vera e merita di essere divulgata, sperando che i governi abbiano veramente voglia di metterla in pratica. Una dettagliata descrizione della prima foglia artificiale è stata pubblicata sull’ ACS (Accounts of Chemical Research) Journal. La scoperta rappresenta una pietra miliare per dirigersi verso una fonte energetica perfettamente sostenibile. Forse l’unica veramente tale, come la Natura ci ha mostrato da centinaia di milioni di anni. Il concetto è ben noto ed estremamente semplice: trasformare l’acqua e la luce solare in energia, copiando ciò che le piante fanno in modo perfetto e meraviglioso. L’unico problema è che… costa troppo poco… Il materiale di cui è fatta è a basso costo e i processi per costruirla di facile realizzazione. Il responsabile di questo fantastico risultato ha un nome italiano (Daniel Nocera) e spero di cuore che tocchi proprio a un italiano (o di origini tali) di segnare questa svolta eccezionale. Magari è anche dovuto emigrare per mancanza di fondi… Ovviamente, se tutto sarà confermato, come sembra molto plausibile leggendo l’articolo originale, questa è una scoperta da premio Nobel, se non per la chimica, almeno per la pace.

Il meccanismo base della foglia artificiale è di spezzare la molecola d’acqua in ossigeno e idrogeno. E non è cosa da poco, soprattutto se fatto con mezzi estremamente economici. L’idrogeno servirà a produrre energia ed elettricità. La grandezza del risultato sta nel fatto che la produzione di energia a basso costo potrà essere utilizzata senza problemi nei paesi del terzo mondo. Non vi è, infatti, necessità di materiale prezioso come il platino. Nocera ha infatti sostituito il platino con un composto formato da zinco, molibdeno e nichel. L’altra parte della foglia sarà invece di cobalto, anch’esso di facile reperibilità. Energia per tutti i miliardi di esseri umani, senza discriminazioni basate sulla ricchezza. Addio alle orribili pale eoliche, ai carissimi e ingombranti pannelli solari, al mefitico biogas, al vigliacco petrolio, all’inquinante metano? Forse potrà essere così. Tuttavia, ho una grande paura che questa soluzione non piaccia ai ricchi della Terra… Spero proprio di sbagliarmi. Mi piace concludere con le parole di Nocera: ““Un obiettivo di ricerca che fornisca energia solare per le zone più povere della Terra, come la foglia artificiale, fornisce alla società globale il percorso più diretto per l’energia sostenibile del futuro”.

di Vincenzo Zappalà
integralmente tratto da ALTRO GIORNALE

venerdì 11 maggio 2012

L'effetto comprovato sulla salute e sull'ambiente da parte delle radiazioni elettromagnetiche emesse dai sistemi Wi-Fi

Nel 2002, Gro Harem Brudtland, allora capo del WHO (World Health Organization), disse ad un giornalista norvegese che i cellulari erano stati banditi dal suo ufficio a Ginevra perché se un telefono cellulare era a meno di 4 metri di distanza si ammalava.

La signora Brundtland è un medico e il precedente Primo ministro della Norvegia. Questa sensazionale notizia, pubblicata il 9 marzo del 2002 da Dagbladet, fu completamente ignorata da tutte le altre testate giornalistiche nel mondo. La settimana seguente un suo dipendente, Michael Repacholi, responsabile del progetto internazionale EMF (campi elettromagnetici), minimizzò pubblicamente le preoccupazioni del suo diretto superiore. Cinque mesi dopo, per ragioni che molti sospettano legate all’annuncio riportato in precedenza, la signora Brundtland ha dato le sue dimissioni dal comando del WHO dopo appena un mandato.

 Niente potrebbe dimostrare più chiaramente la schizofrenia collettiva di quando si parla delle radiazioni elettromagnetiche. Rispondiamo a tutti quelli preoccupati per la loro salute (come fa intendere il progetto EMF), ma ignoriamo ed emarginiamo coloro, come la Sig.ra Brundtland, che ne hanno già subito i danni.

 Come consulente degli effetti sulla salute della tecnologia wireless, ricevo chiamate che possono essere approssimativamente suddivise in due gruppi: le persone solamente preoccupate, che chiamerò gruppo A, e quelle già ammalate, che chiamerò gruppo B. A volte vorrei organizzare una conferenza telefonica ed invitare i due gruppi per farli confrontare, abbiamo bisogno di una comprensione globale del problema in quanto siamo sulla stessa barca. Un individuo del gruppo A, preoccupato, solitamente chiede il tipo di protezione da usare sul cellulare ed il tipo di auricolare. A volte chiede anche qual è la distanza che ci dovrebbe essere tra la sua abitazione ed un ripetitore. Un individuo del gruppo B, ammalato, vuole sapere quale protezione usare per la sua casa, come si può curare o, sempre più di frequente, in quale parte del paese trasferirsi per salvarsi dalle radiazioni.

 Questo articolo è stato scritto come un piccolo manuale, prima di tutto per mettere tutti sulla stessa linea d’onda e poi per chiarire alcune cose in modo che si possano effettuare scelte razionali verso un mondo più sano.
-

Elementi fondamentali
-
La cosa più importante sui telefoni cellulari ed i ripetitori è che emettono radiazioni microonde proprio come le antenne Wi-Fi, i computer senza fili (portatili), i telefoni cordless e le loro unità base e tutti gli altri apparecchi senza fili. Se è un apparecchio di comunicazione e non è connesso ad un filo, emette radiazioni. La maggior parte dei sistemi Wi-Fi ed alcuni cordless usano la stessa frequenza dei forni a microonde, altri invece usano frequenze diverse. I dispositivi Wi-Fi sono sempre accesi ed emanano in continuazione radiazioni come le unità di base dei cordless che emanano radiazione anche quando il telefono non è in uso. Un telefono cellulare acceso, seppure non in uso, emana in continuazione radiazioni. Per non parlare dei ripetitori, logicamente sempre attivi.

 A questo punto potresti domandare quale è il problema. Gli scienziati normalmente suddividono lo spettro elettromagnetico in “ionizzanti” e non “ionizzanti”. Le radiazioni ionizzanti, che includono i raggi x e le radiazioni atomiche, causano il cancro. Le radiazioni “non ionizzanti”, tra cui le microonde, dovrebbero essere innocue. Questa distinzione mi ricorda la propaganda della “Fattoria degli animali” di George Orwell: “Quattro gambe buono, due gambe cattivo”. – L’affermazione “Non ionizzante buono, Ionizzante cattivo” è poco affidabile.

 Una volta un astronomo, scherzò sull’eventualità che se Neil Armstrong avesse portato un telefono cellulare sulla luna nel 1969, ci sarebbe apparsa come la terza più potente fonte di radiazioni microonde nell’universo, preceduto solo dal sole e dalla via lattea. Egli aveva ragione. L’evoluzione della vita sulla terra è avvenuta con livelli trascurabili di radiazioni microonde.

Un numero crescente di scienziati asserisce che le nostre cellule usano le microonde per comunicare tra loro, come il sussurro di un gruppo di bambini al buio e che i cellulari interrompono bruscamente questa loro comunicazione. Comunque, sta di fatto che siamo tutti quanti bombardati da una quantità di microonde che superano di dieci milioni di volte la media naturale del passato, ogni giorno, se usiamo o non usiamo il cellulare. Sta di fatto, anche, che la maggior parte delle radiazioni proviene dalle tecnologie create dal 1970 ad oggi.

 Per quanto riguarda i cellulari, avvicinandoli alla testa danneggi il tuo cervello in vari modi. Per prima cosa, pensa ad un forno a microonde. Il telefonino, come il forno a microonde e a differenza di una doccia calda, riscalda dall’interno, non dall’esterno. Non ci sono sensori per avvisarti del riscaldamento graduale del cervello in quanto la nostra evoluzione non è avvenuta in presenza di radiazioni microonde. Inoltre, la struttura della testa e del cervello è talmente complessa e non uniforme che si creano all’interno di esso dei “punti caldi” dove il riscaldamento può superare dai dieci alle cento volte quello dei tessuti adiacenti. Questi cosiddetti punti caldi possono crearsi sulla superficie del cervello in prossimità del cranio, in profondità o addirittura a livello molecolare.

 La F.C.C. (Commissione Federale delle Comunicazioni USA) è incaricata di stabilire le norme che regolano l’utilizzo dei telefoni cellulari. Nell’imballaggio della maggior parte dei telefoni è esposto un numero chiamato S.A.R. (Specific Absorption Rate) che dovrebbe indicare per ciascun modello di cellulare, la quantità di energia elettromagnetica assorbita dal cervello. Uno dei principali problemi, però, sono i parametri arbitrari sulla quale si basa la F.C.C. Sostengono che il cervello può sopportare un surriscaldamento fino a 1 grado C per ora. A peggiorare la situazione è la procedura scandalosa usata per dimostrare la conformità degli apparecchi a questi limiti per dare ad ogni modello di cellulare un numero S.A.R. La procedura standard per la misurazione del SAR consiste, strano ma vero, nella misurazione su una “testa fantasma”, un fluido omogeneo racchiuso in un contenitore a forma di cranio fatto di plexiglas. Voilà, nessuna zona calda! In realtà, le persone che usano il cellulare per svariate ore al giorno, stanno in continuazione surriscaldando zone del loro cervello. Tra l’altro i parametri creati dalla F.C.C. sono stati elaborati da ingegneri elettrici e non da medici!


La barriera sanguigna del cervello

-
Il secondo effetto collaterale del quale vi vorrei parlare, che è stato provato nei laboratori, avrebbe dovuto di per sé essere abbastanza, per chiudere questa industria e spaventare chiunque convincendoli a non usare più i loro telefoni cellulari. Io lo chiamo la “prova schiacciante” contro i telefoni cellulari. Come la maggior parte degli effetti biologici delle radiazioni microonde, questo non ha niente a che fare con il riscaldare.

Il cervello è protetto da una griglia di passaggi stretti tra cellule adiacenti delle pareti dei capillari, la cosiddetta barriera sanguigna del cervello che, come una pattuglia di guardia, fa passare i nutrienti e blocca le sostanze tossiche. Dal 1988, nei laboratori di ricerca di un neurochirurgo svedese, Leif Salford, vengono eseguite diverse variazioni di questo semplice esperimento: delle cavie vengono esposte a radiazioni dei cellulari o di altri tipi di fonte di radiazioni microonde, in seguito questi ratti vengono sacrificati per esaminare l’albumina nel loro cervello. L’albumina è una componente del sangue che normalmente non attraversa la barriera sanguigna del cervello. La presenza di albumina nei tessuti del cervello è un segnale che dei vasi sanguigni sono stati danneggiati e che il cervello abbia perso una parte della sua protezione.

 Questo è quello che hanno trovato costantemente i ricercatori negli scorsi 18 anni: le radiazioni di microonde in una quantità uguale alle emissioni di un cellulare hanno causato la dispersione di albumina nei tessuti del cervello. Un'unica esposizione per 2 minuti ad un normale telefonino ha provocato la dispersione di albumina nel cervello. In uno degli esperimenti, riducendo le esposizioni a 1/1000, i danni alla barriera sanguigna del cervello sono di fatto aumentati, dimostrando che i danni non sono proporzionali alla dose e che ridurre la potenza non renderà i telefoni cellulari più sicuri.

 Alla fine, in una ricerca pubblicata nel giugno 2003, si è dimostrato che un’unica esposizione di 2 ore ad un cellulare, una sola volta nella vita, ha danneggiato definitivamente la barriera sanguigna del cervello; 50 giorni più tardi nell’autopsia è stato verificato che il 2% delle cellule del cervello dell’animale erano state distrutte, incluse le cellule collegate all’apprendimento, alla memoria e al movimento. Riducendo il livello di esposizione di 10 o 100 volte, per simulare la ridotta esposizione che si ha usando l’auricolare, allontanando il cellulare dal corpo o stando semplicemente nelle vicinanze di qualcuno che sta usando il cellulare, non ha cambiato il risultato della ricerca! Anche con la minima esposizione, la metà degli animali, mostrava un numero discreto o elevato di neuroni danneggiati.

Quali sono le implicazioni per noi? Due minuti al cellulare disturbano la barriera sanguigna del cervello, due ore al cellulare danneggiano definitivamente il cervello, le radiazioni “passive” potrebbero essere altrettanto dannose. La barriera sanguigna del cervello di un ratto è identica a quella dell’uomo.

Questi risultati eclatanti hanno creato talmente tanta agitazione in Europa che nel Novembre 2003 fu organizzata una conferenza sponsorizzata dall’Unione Europea, dal titolo “La barriera sanguigna del cervello – Può essere influenzata dalle interazioni delle onde elettromagnetiche?”, apparentemente per rassicurarci, quasi come lanciare un messaggio: “Stiamo facendo qualcosa!”. Realmente non hanno fatto niente, come non è stato fatto niente negli ultimi 30 anni.

Alan Frey, durante tutti gli anni ’70, fu il primo dei tanti a dimostrare che le microonde a basso livello danneggiano la barriera sanguigna del cervello. (2) Un meccanismo simile protegge l’occhio (barriera sanguigna dell’occhio) e il feto (barriera placentare), Frey ed altri dimostrarono che le microonde danneggiano anche queste barriere. (3) L’implicazione: Nessuna donna incinta dovrebbe usare il telefono cellulare.

Il Dott. Salford è molto schietto per quanto riguarda le sue ricerche. Definisce l’uso dei cellulari come “il più grande esperimento biologico mai esistito”, e ha avvertito pubblicamente che un’intera generazione di teen-ager potrebbero trovarsi a soffrire di deficit celebrali o di Alzheimer non appena raggiunta la mezz’età.


La malattia delle onde elettromagnetiche


Sfortunatamente, i cellulari non nuociono solamente a chi li usa, e purtroppo non ci dobbiamo preoccupare solo del cervello. Il seguente sommario è stato preparato tenendo conto di un vasto numero di lavori scientifici sugli effetti delle onde elettromagnetiche (che comprendono anche le microonde), e delle esperienze di alcuni scienziati e medici da tutto il mondo, con i quali sono in contatto.

Gli organi più suscettibili alle radiazioni includono i polmoni, il sistema nervoso, il cuore, gli occhi e la ghiandola tiroidea. Le malattie legate a tali organi, come asma, disordini del sonno, ansia, ADD, autismo, sclerosi multipla, ALS, Alzheimer, epilessia, fibromi, fatica cronica, cataratte, ipotiroidismo, diabete, melanomi maligni, cancro del testicolo e attacchi di cuore, sono aumentate notevolmente negli ultimi decenni, ci sono numerose ragioni che fanno collegare tale incremento al notevole aumento delle onde elettromagnetiche nell’ambiente.
 Le radiazioni microonde trasmesse dai ripetitori, sono state associate anche al diffuso seccarsi degli alberi, all’incapacità di riproduzione e la diminuzione di molte specie di uccelli, alle malattie e le deformazioni neonatali degli animali da fattoria. La documentazione a prova degli effetti biologici delle radiazioni microonde è molto vasta, raggiunge quasi i diecimila documenti. Sono sbalordito di come i rappresentanti dell’industria riescono a cavarsela dicendo che la tecnologia senza fili sia risultata innocua, o entrando ancora di più nel ridicolo, che non ci siano prove di dannosità.

Ho omesso dalla lista sopra una malattia: la malattia che ho io e “l’individuo del gruppo B”. Di seguito un riassunto storico. Negli anni ’50 e ’60 i lavoratori che costruivano, testavano e riparavano impianti radar, furono colpiti in larga scala da questa malattia. Così fu anche per chi, nelle industrie, costruiva o riparava forni e saldatrici a microonde. I sovietici lo hanno chiamato, giustamente, la malattia delle onde radio, ed hanno fatto ricerche approfondite a riguardo. Nell’occidente, l’esistenza di questa malattia è stata sempre negata, ma i lavoratori continuavano ad ammalarsi. Vedi le testimonianze in un’udienza del 1981 d’avanti al Congresso, presidiata dal rappresentante Al Gore, che illustrarono gli effetti dei forni e saldatori a microonde. Un altro episodio di “Stiamo facendo qualcosa!” ma realmente niente viene fatto.
Al giorno d’oggi con la proliferazione dei ripetitori radio e dei trasmettitori personali, la malattia si è diffusa come una piaga nella popolazione. La stima è che la malattia ha colpito 1/3 della popolazione, ma viene diagnosticata per quello che è, solamente quando ha disabilitato a tal punto l’individuo, che oramai non può più avere una vita sociale. Alcuni dei sintomi più comuni sono: insonnia, giramenti di testa, nausea, mal di testa, fatica, perdita di memoria, mancanza di concentrazione, depressione, dolori del torace, fischio nelle orecchie. I pazienti possono anche manifestare infezioni croniche a livello respiratorio, aritmie cardiache, sbalzi di pressione improvvise, sbalzi dei livelli dello zucchero nel sangue, disidratazione, e persino lesioni ed emorragia interna.

Quello che rende questa malattia così difficile da accettare, è che nessuna terapia potrebbe essere di successo se non si elimina l’esposizione alla causa, ma la causa ormai è ovunque.

Un sondaggio del 1998 del Dipartimento dei Servizi Salutistici della California, indica che nello stesso anno 120.000 californiani, di conseguenza 1 milione di americani, non hanno potuto lavorare per problemi relativi alle onde elettromagnetiche. (4) Il numero delle persone cosiddette elettro-sensitive sta aumentando sensibilmente in ogni paese del mondo. Sono marginalizzate, etichettate ed ignorate. Con la presenza di onde elettromagnetiche ovunque, raramente si riprendono e a volte si tolgono la vita.
Il Dott. Olle Johansson si riferisce agli ammalati dichiarando “Ci avvertono di un pericolo che c’è per tutti”. “Potrebbe essere un enorme errore sottoporre il mondo intero a radiazioni 24 ore al giorno”. Il Dott. Johansson, neuro-scienziato del famoso Istituto Karolinska a Stoccolma, dirige un gruppo di ricerca che sta documentando il peggioramento significativo della salute pubblica che ebbe inizio con l’introduzione in Svezia nel 1997 dei cellulari di seconda generazione a 1800MHz. (5,6)

Dopo un declino durato 10 anni, a fine 1997 il numero di permessi per malattia dei lavoratori svedesi è aumentato notevolmente, e nei 5 anni successivi i permessi sono più che raddoppiati.

Durante lo stesso periodo è raddoppiata anche la vendita di antidepressivi. Il numero di incidenti stradali, dopo una notevole riduzione negli anni precedenti, nel 1997 iniziò di nuovo ad aumentare. Dopo anni di declino i decessi per Alzheimer nel 1999 si alzarono di picco e sono quasi raddoppiati nel 2001. Considerando che l’Alzheimer richiede alcuni anni per svilupparsi, ecco risolto il ritardo di 2 anni a livello statistico.


Proliferazione incontrollata
-
Se i cellulari ed i suoi ripetitori sono mortali, i ripetitori radio e tv, con i quali abbiamo vissuto per più di un secolo, sono stati innocui? Nel 2002, Orjan Hallberg e Olle Johansson hanno scritto una relazione che analizza questa domanda dal titolo: “La tendenza al cancro durante il ventesimo secolo”. (7) Hanno trovato negli Stati Uniti, Svezia e dozzine di altri paesi, che l’aumento della mortalità per il melanoma della pelle e per il cancro della vescica, prostata, colon, seno e polmoni, erano quasi paragonabili all’aumento dell’esposizione pubblica alle onde elettromagnetiche negli ultimi 100 anni. Quando aumentavano i trasmettitori in una determinata zona, aumentavano anche i casi di quei tipi di cancro, quando i trasmettitori diminuivano, diminuivano anche i casi di cancro. Un’altra scoperta sensazionale, paese per paese, e località per località in Svezia, hanno trovato statistiche che provavano che i tumori causati dall’esposizione alle onde elettromagnetiche erano tanti quanto quelli causati dal fumo delle sigarette.
Questo mi porta a sottolineare un’incomprensione globale. La differenza più grande tra i ripetitori dei cellulari di oggi ed i ripetitori radio, non è la sicurezza bensì il numero. Il numero di ripetitori radio negli Stati Uniti, ancora oggi, è minore di 14000. Il numero di ripetitori per i cellulari ed i ripetitori Wi-Fi superano i centomila, e di cellulari, computer portatili, cordless e “walkie-talkie” se ne contano un centinaio di milioni. Inoltre si stanno moltiplicando senza controllo le istallazioni radar ed i network di comunicazione per le emergenze. Dal 1978, quando l’Agenzia per la protezione ambientale ha per l’ultima volta censito le onde radio negli Stati Uniti, l’esposizione urbanistica per ogni abitante alle onde elettromagnetiche è aumentata di 1000 volte, l’aumento maggiore c’è stato negli ultimi 9 anni.

Nello stesso periodo, l’inquinamento elettromagnetico si è esteso come la nebbia dalle città a tutto il pianeta.
Le vaste conseguenze di tutto questo sull’umanità sono ignorate. Dalla fine del 1990, è stata creato negli Stati Uniti, un’intera nuova classe di rifugiati ambientali. Abbiamo un numero, sempre maggiore, di persone ammalate o morenti, che, come me, stanno cercando un po’ di sollievo dalla sofferenza, abbandonano le loro case, alcuni vivono nelle macchine, nei rimorchi o in tenda senza fissa dimora. A differenza dei terremotati, nessuno fa alcun tentativo per alleviare le nostre sofferenze. Nessuno sta raccogliendo donazioni, magari per comprare una casa protetta, nessuno prende in considerazione la possibilità di rinunciare al proprio telefono cellulare, i loro portatili o i loro cordless in modo che possiamo avere anche noi dei vicini di casa.

Le persone preoccupate, e quelle ammalate non si sono ancora aperti l’un l’altro, però si pongono domande.

Una risposta al gruppo A: Nessuna barriera o auricolare può proteggerti dal tuo telefono cellulare o dal tuo cordless. Non c’è una distanza che può essere considerata sicura dai ripetitori. Se il tuo telefono cellulare, il tuo cordless o il tuo portatile funziona nella tua casa, sei irradiato 24 ore su 24.

Al gruppo B: Creare una barriera efficace per la tua casa, è difficile ed ha poche possibilità di successo. Ci sono solo un paio di medici negli Stati Uniti che provano a curare i danni delle onde elettromagnetiche, e raramente hanno avuto successo poiché ci sono pochissimi luoghi in tutto il mondo dove ancora non sono arrivate le radiazioni.
Si, le radiazioni provengono anche dall’alto, dai satelliti; i satelliti sono una parte del problema, non la soluzione. Non c’è alcun modo per rendere la tecnologia wireless sicura.
La nostra società in appena un decennio, è divenuta socialmente ed economicamente dipendente da quella tecnologia che sta danneggiando tremendamente il mondo. Più ci “infanghiamo” in questa tecnologia, più sarà difficile uscirne. Il momento per uscirne, come individuo e collettivo, per quanto possa essere difficile, è adesso!



 "Il più grande esperimento biologico mai compiuto"
pubblicata da

Delmondo Salvatore

Titolo originale: The Largest Biological Experiment Ever
 fonte: www.eldoradosun.com

Traduzione di Amanda Adams per "La Leva di Archimede"

segnalato da "Foster"

integralmente rfipreso da
disinformazione.it

sabato 31 marzo 2012

La NASA crea le scie chimiche? No sono solo i vettori Atrex... a rilasciarle!

Zappa sui piedi dei disinformatori: l'articolo che segue prima dileggia i complottisti, ovvero coloro che riescono a vedere oltre le verità ufficiali col conforto di una capacità di discernimento incondizionata da dettami culturali, e poi ammette l'utilizzo di trimetilalluminio allo scopo di creare nuvole lattiginose atte a rendere visibili le correnti tra gli 80 ed i 140km di quota. Questo particolato è proprio uno di quelli ipotizzati o rilevati dagli studiosi nelle cosiddette Scie Chimiche.

Immagine di repertorio

"Ognuno vede ciò che vuole vedere, ma queste non sono scie chimiche ma scie rilasciate dai vettori lanciati dalla Nasa in Virginia [cioè scie chimiche, N.d.R.]. Per studiare nuvole, venti e il campo elettromagnetico.
-
Parlare di astronomia e astronautica a chi vede complotti ovunque non è facile [ancor più con chi non li vede]. Ma in questo caso potrete dormire tranquilli [!!!], si perché queste non sono scie chimiche ma nuvole prodotte dai cinque razzi lanciati dalla Nasa [vale a dire, per la seconda volta: "Attenzione, non sono scie chimiche ma scie chimiche"...]. Più precisamente sono i vettori della missione Atrex (Anomalous Transport Rocket EXperiment), spediti nell'atmosfera per monitorare i movimenti delle nuvole, delle correnti d'aria e il campo magnetico nell'atmosfera, al limite con lo Spazio esterno.
Lo scopo della missione ATREX è quello di raccogliere ulteriori informazioni necessarie a comprendere meglio i meccanismi responsabili della formazione delle correnti a getto situate ad una quota intorno ai 100 km di altitudine.
Il lancio del primo razzo è avvenuto la mattina del 27 marzo alle ore 9:00 dalla base di Wallops Island, in Virginia. Dopo una pausa di 80 secondi si è provveduto al lancio del successivo continuando con questa cadenza temporale fino al quinto razzo.
Una volta lasciata la superficie della Terra, i razzi hanno rilasciato una traccia chimica di trimetilalluminio, formando delle nuvole lattiginose. [guarda un po', come quelle che vedono solo i "complottisti"...]
In questo modo, è stato possibile vedere le correnti tra gli 80 e i 140 chilometri di altitudine e registrarli con una telecamera. I razzi, intanto, hanno misurato temperatura e pressione.
 I vettori sono partiti a pochi minuti di distanza e le scie (innocue) [innocue?!? In base a quali presupposti? E perché specificarlo?] sono rimaste visibili per una mezz'ora, garantendo uno spettacolo curioso [ma purtroppo consueto] immortalato dalla fotocamera della NASA. [per caso di quelle fotocamere che non rilevano il colore verde, come quelle spedite su Marte?]"
-
per info di qualità sulle scie chimiche, consulta il sito di tankerenemy.com