Visualizzazione post con etichetta Scienza. Mostra tutti i post
Visualizzazione post con etichetta Scienza. Mostra tutti i post

giovedì, ottobre 01, 2009

Dalla Terra al cosmo, 13 beffe mandano in tilt gli scienziati

Conferenza EPPUR SI FONDE - PreregistrazioneLa più intrigante? È la fusione fredda, ma le ricerche proseguono.


Ci sono 13 misteri che non solo sfidano la capacità di comprensione degli scienziati, ma mettono in crisi la nostra immagine del mondo. Ne fa una rassegna il libro «13 Things That Don’t Make Sense» di Michael Brooks (Vintage Books).

1. Effetto placebo
La posizione numero uno va a un esperimento condotto a Torino dal fisiologo Fabrizio Benedetti. Se ai malati che provano dolore si somministra prima la morfina e poi una soluzione salina senza proprietà analgesiche, si avrà l’«effetto placebo». Ma Benedetti ha verificato che, se alla soluzione salina viene aggiunto (sempre a insaputa dei malati) del naloxone, che annulla gli effetti della morfina, il placebo non fa più effetto. Come è possibile? Pare che il placebo induca non una mera auto-suggestione, ma una reale risposta biochimica, ormonale e immunitaria del corpo; così reale da essere annullata da una sostanza di contrasto.

2. Orizzonti cosmici
L’universo ha 14 miliardi di anni e un diametro di 28 miliardi di anni luce. Niente può viaggiare più velocemente delle radiazioni elettromagnetiche. E nessuna radiazione ha avuto il tempo di attraversare tutto l’universo per realizzare l’equilibrio termico che osserviamo. Come si spiega che da ogni direzione ci colpisca una radiazione cosmica di 3 gradi? Si ipotizza che l’omogeneità sia dovuta a un’espansione particolarmente rapida in una fase di poco successiva al Big Bang. Ma è una «spiegazione» che richiede a sua volta di essere spiegata.

3. Raggi energetici
I raggi cosmici sono particelle che viaggiano ad altissima velocità. Nel farlo, collidono coi fotoni presenti nello spazio e perdono energia. Einstein calcolò che nessun raggio cosmico extragalattico possa raggiungerci con un’energia superiore a 5x10 elettronvolt elevato a 19. Eppure, da 10 anni si rilevano raggi cosmici dotati di un’energia enormemente superiore. Come mai? Si fanno ipotesi da brivido, per esempio che lo spazio non sia uniforme e che esistano direzioni privilegiate lungo le quali le particelle perdono meno energia. Questo scardinerebbe la nostra conoscenza del cosmo.

4. Omeopatia a Belfast
La medicina omeopatica ritiene che i farmaci possono conservare una capacità d’azione pur se diluiti all’estremo. Finora non c’erano prove, ma alla Queen’s University di Belfast dicono di aver dimostrato che un’istamina (sostanza antiallergica naturale) fa effetto anche così diluita che nella soluzione non ne resta più neanche una molecola, come se l’acqua ne avesse assunto le proprietà. Un bel mistero.

5. Materia oscura
La quantità di materia visibile non genera abbastanza forza di gravità da tenere insieme le galassie e i loro ammassi; ce ne vorrebbe 10 volte di più. Si è battezzata «materia oscura» la massa mancante, attribuendole la caratteristica di manifestarsi solo con la forza di gravità e con nient’altro. Ipotesi alternativa: alle lunghissime distanze la legge di gravità è diversa da come la conosciamo. Allora dovremmo riscrivere la fisica.

6. Flatulenze su Marte
Nel ‘76 su Marte la sonda Viking somministrò delle sostanze nutrienti marcate con carbonio 14 a una porzione di terriccio e rilevò un’emissione di metano (una flatulenza?) marcata col carbonio 14, come se qualcosa avesse digerito quelle sostanze. Esperimenti paralleli non hanno, però, confermato la presenza di microrganismi. Ora, uno studio in California ha messo in rilievo un ritmo circadiano (legato ai tempi del sole) in quell’attività biochimica. E i ritmi circadiani sono un ulteriore indizio di vita.

7. Tetra-neutroni
Il principio di esclusione di Pauli vieta a due neutroni nello stesso sistema di avere identiche proprietà quantistiche. Ma un esperimento in Francia ha individuato 4 neutroni che si trovavano nella condizione proibita. Smarrimento totale.

8. Pioneer troppo veloci
Le sonde Pioneer 10 e 11, lanciate negli Anni 70 verso l’esterno del sistema solare, hanno subito una misteriosa accelerazione che le ha portate fuori traiettoria di 400 mila chilometri. Forse subiscono l’influenza dell’«energia oscura».

9. Energia oscura
Si credeva che l’espansione dell’universo frenasse per influsso della gravità, invece abbiamo scoperto che accelera. Quale energia provoca questa accelerazione? Provvisoriamente si chiama energia oscura. Tanto varrebbe chiamarla X. Buio totale.

10. Decimo pianeta
Deve esserci. Non uno dei tanti pianetini tipo Quaorar o Sedna che ogni tanto vengono trovati; deve trattarsi di un pianeta grande come la Terra che ha ripulito di detriti il sistema solare al di là di Plutone. Verso il 2015 una sonda della Nasa arriverà in zona e forse lo individuerà.

11. Segnale radio «Wow!»
Il 15 agosto 1977 un radioastronomo dell’Ohio gridò «Wow!» dopo aver registrato un segnale di 37 secondi e concentrato sui 1420 megahertz, frequenza non usata per le trasmissioni sulla Terra. I segnali dallo spazio sono sempre su uno spettro più ampio e dai bordi frastagliati. Questa «pallottola radio» è la cosa più simile a un messaggio di extraterrestri che abbiamo mai ricevuto.

12. Costanti non costanti
Nel 1997 in Australia è stata analizzata la luce di quasar distanti 12 miliardi di anni luce. Risultato: durante il viaggio la luce è stata esposta a variazioni nella cosiddetta costante di struttura fine, legata a sua volta ad altre costanti della fisica. Ma le costanti non dovrebbero essere immutabili? Se variano nel tempo e nello spazio, non potremo capire più nulla dell’universo.

13. Fusione fredda
Nel 1989 due scienziati annunciarono di aver riprodotto a temperatura ambiente il processo che genera energia nel cuore del Sole. L’esperimento non fu accettato, ma gli studi proseguono. Se andassero a buon fine, molti dei problemi energetici sarebbero risolti. Il punto 13 vale più dei precedenti messi assieme.


LUIGI GRASSIA per
lastampa.it


Attacco all'informazione CLICCA QUI

CHEMTRAILS DATA

Range finder: come si sono svolti i fatti

venerdì, dicembre 12, 2008

Irrorazioni chimico-biologiche a bassa quota: la testimonianza di un fisico

Martedì 5 febbraio, alle ore 13:00, un aereo presumibilmente militare ha intenzionalmente sorvolato a quota bassa (circa 1.000 metri, che per un aereo di quel tipo è una quota decisamente inusuale, se non in fase di decollo/atterraggio) l'Istituto d'Istruzione Superiore "G. Antonietti" di Iseo. La vicinanza e la presumibile quota sono state confermate anche da altri testimoni: alcuni miei ex alunni che si trovavano accanto a me in quel momento.

Ricordo che gli aerei civili percorrono rotte aeree a circa 9.000 metri di altezza (dove l'aria è più rarefatta e quindi il consumo di carburante è minore) e che il
Regolamento dell’Aria adottato dall' Ente Nazionale Aviazione Civile (al CAPITOLO 3 - REGOLE GENERALI – Punto 3.1.2) recita testualmente:

Ad eccezione dei casi in cui è necessario per il decollo o l'atterraggio, o nei casi di permesso accordato dall’E.N.A.C., gli aeromobili non devono volare al di sopra di aree abitate di città e paesi, su insediamenti o assembramenti di persone all'aperto.

La manovra in sé è quindi non solo potenzialmente pericolosa (come non ricordare con angoscia la tragedia di quella scuola di Bologna sventrata 10 anni fa da un aereo militare?), ma persino illegale.

Il rischio potrebbe essere, però, molto maggiore di quello che sembra, dal momento che l’aereo rilasciava una notevole striscia bianca che non poteva essere una scia di condensa. Le scie di condensa, come può confermare un qualsiasi manuale di aeronautica, si formano solo al di sopra degli 8.000 metri, ed anche in quel caso solo in coincidenza con temperature molto basse ed umidità elevate. In nessun caso si possono generare a 1.000 e neppure a 3.000 metri di quota (anche se la quota del velivolo non fosse stata stimata correttamente, non ci sarebbero lo stesso le condizioni per la formazione di una scia di condensa di vapore acqueo fuoriuscito dal motore).

Per fornire qualche ragguaglio sulla questione riporto quanto segue: “L’immissione in atmosfera dei gas di scarico degli aerei, ricchi di nuclei di condensazione e di vapore acqueo, determina la sovrassaturazione del vapore acqueo e quindi la formazione di scie. Le scie di condensazione si formano ad altezze in cui la temperatura dell’aria è molto bassa (inferiore a -40 °C), con umidità relativa almeno del 60%. Le scie possono più o meno durare nel tempo, a seconda della stabilità dell’aria e della quantità di vapore presente.” [Girolamo Sansosti & Alfio Giuffrida - Manuale di meteorologia, Una guida alla comprensione dei fenomeni atmosferici e climatici in collaborazione con l’U.A.I. (Unione Astrofili Italiani) - Gremese Editore – 2006 – pag 86] .

Dal momento che la diminuzione di temperatura per ogni 1.000 metri è di circa 6,5°, è evidente che l'aereo avvistato a bassa quota non poteva mai e poi mai rilasciare una scia di condensa, come confermano i dati di umidità e temperatura di quel giorno: i -40° di temperatura venivano rilevati solo a 7.500 metri di quota e, da 7.500 fino a 12.000 metri di quota (chi vede mai un aeromobile che vola a 12 km di altezza?), l'umidità relativa era compresa tra l'1% ed il 47%.

Non essendovi per altro alcun carburante che, bruciando, possa formare quel tipo di scie con quel colore biancastro (osservando i Canad-air che volano basso fino al mare per raccogliere l'acqua per spegnere gli incendi, si può facilmente notare il fumo nero che proviene dai motori), l’unica possibilità che resta è inquietante, perché in tutto il mondo sono state rivelate anomale scie di origine chimica dette chemtrails (scie chimiche). Le analisi della polvere di ricaduta hanno portato all’identificazione di una serie di elementi chimico-biologico pericolosi per l’uomo, particolarmente alluminio, bario, torio, nanopolimeri artificiali dannosi per il sistema respiratorio, agenti infettivi (ad es. il micoplasma).



Il tutto sembra essere legato ad un'oscura manovra pilotata dal governo U.S.A. Il rapporto annuale del Pentagono dimostra, infatti, che
gli Stati Uniti stanno preparando prove di armi chimiche e biologiche all’aria libera in violazione delle convenzioni internazionali, come ha dichiarato il professor Francis A.Boyle, riconosciuto un esperto in materia. Si può temere il peggio, se si mette in conto che l’esercito degli Stati Uniti ha già realizzato in passato questo tipo di esperimenti in diverse grandi città statunitensi, ai danni ed all'insaputa della propria popolazione. Famoso è, ad esempio, l’episodio di San Francisco negli anni '50 del XX secolo, quando agenti biologici furono polverizzati da navi militari sull’inerme ed inconsapevole popolazione. Da notare anche che il Ministero della "difesa" britannico ha ufficialmente confermato di avere compiuto simili esperimenti per quasi tutto il dopoguerra.


Corrado Penna (fisico),
docente di matematica e fisica dell'Istituto Scolastico Superiore di Iseo

Nota bene: i sorvoli di aerei che, rilasciando queste scie tossiche proseguono continuamente in tutto il territorio italiano, sebbene a quote leggermente più elevate, ma senza dubbio non idoneee alla formazione di scie di condensa, come verificato recentemente per mezzo di telemetro laser. Maggiori informazioni si possono reperire nel dossier visionabile sia on line sia off line (scaricandolo) a
questo indirizzo.

Il tutto sembra essere legato ad un'oscura manovra pilotata dal governo U.S.A. Il rapporto annuale del Pentagono dimostra, infatti, che gli Stati Uniti stanno preparando prove di armi chimiche e biologiche all’aria libera in violazione delle convenzioni internazionali, come ha dichiarato il professor Francis A.Boyle, riconosciuto un esperto in materia. Si può temere il peggio, se si mette in conto che l’esercito degli Stati Uniti ha già realizzato in passato questo tipo di esperimenti in diverse grandi città statunitensi, ai danni ed all'insaputa della propria popolazione. Famoso è, ad esempio, l’episodio di San Francisco negli anni '50 del XX secolo, quando agenti biologici furono polverizzati da navi militari sull’inerme ed inconsapevole popolazione. Da notare anche che il Ministero della "difesa" britannico ha ufficialmente confermato di avere compiuto simili esperimenti per quasi tutto il dopoguerra.


Corrado Penna (fisico),
docente di matematica e fisica dell'Istituto Scolastico Superiore di Iseo

Nota bene: i sorvoli di aerei che, rilasciando queste scie tossiche proseguono continuamente in tutto il territorio italiano, sebbene a quote leggermente più elevate, ma senza dubbio non idoneee alla formazione di scie di condensa, come verificato recentemente per mezzo di telemetro laser. Maggiori informazioni si possono reperire nel dossier visionabile sia on line sia off line (scaricandolo) a
questo indirizzo.

Trattato di Lisbona: firma per chiedere il referendum
Aggiorna Tanker Enemy nei tuoi preferiti. D'ora in poi questo blog è raggiungibile digitando http://www.tankerenemy.com/
TANKER ENEMY TV: i filmati del Comitato Nazionale
FIRMA LA PETIZIONE PER ABOLIRE IL CANONE RAI

sabato, maggio 10, 2008

Dossier H.A.A.R.P. (articolo del portale "Il bene comune")

Scheda 1 – Che cos’è H.A.A.R.P.

Haarp è un programma di ricerca nato per studiare le proprietà della ionosfera e le avanzate tecnologie nelle comunicazioni radio applicabili nel campo della difesa. Il termine HAARP indica l’acronimo di High-frequency Active Auroral Research Project: Programma di Ricerca Aurorale Attivo ad Alta frequenza. E’ un progetto del Dipartimento della Difesa Statunitense (DoD), coordinato dalla Marina e dall’Aviazione e considerato il nucleo del programma “Guerre Stellari” avviato sotto le amministrazioni Regan–Bush negli anni ’80.

Il progetto HAARP viene avviato nel 1990 dall’Air Force Research Laboratory e dall’Office of Naval Research e concluso (ufficialmente - ndr) nel 2007. L’intero progetto è stato economicamente sostenuto in maniera congiunta da: aviazione, marina e Agenzia per i Progetti di Ricerca Avanzata del Dipartimento della Difesa (DARPA) statunitensi.

Alla base del progetto HAARP ci sono una serie di brevetti di Bernard J. Eastlund, fisico texano del MIT di Boston. Negli anni Ottanta, ispirandosi alle scoperte di Nikola Tesla nell’inizio del ‘900, Eastlund registra negli Stati Uniti il brevetto n° 4.686.605 denominato “Metodi e apparati per alterare regioni dell’atmosfera terrestre, della ionosfera o della magnetosfera” (link), a cui seguono altri undici brevetti.

Il dispositivo ideato da Eastlund, chiamato riscaldatore ionosferico, è in grado di concentrare e focalizzare la radiazione della radiofrequenza (RFR) in un punto preciso della ionosfera. Questo dispositivo getterebbe una concentrazione di un watt per centimetro cubico nella ionosfera, una quantità senza precedenti se confrontata con altri in grado di trasportare soltanto circa un milionesimo di watt.

Secondo le scoperte di Eastlund, quindi, dirigere la potenza di HAARP verso uno specifico punto della ionosfera la farebbe riscaldare al punto da innalzarla fisicamente. In questo modo si verrebbe a creare un rigonfiamento altamente riflettente, definito da lui “effetto lente”, in grado di convogliare i raggi sulla terra con effetti devastanti. La potenza di tali onde sarebbe tale da provocare modificazioni molecolari dell’atmosfera, causando, a seconda delle diverse frequenze: cambiamenti climatici, la possibile disgregazione di processi mentali umani e probabilmente anche effetti sui movimenti tettonici di magnitudine imprecisata.

Il brevetto di Eastlund descrive una tecnologia in grado di confondere o interrompere completamente i sofisticati sistemi di guida di missili e di aeroplani. Più precisamente, questa capacità di coprire ampie zone della Terra con onde elettromagnetiche di frequenza variabile e il relativo controllo dei cambiamenti di tali onde, rende possibile la distruzione di comunicazioni via etere.

Il brevetto dice:

“Così, questa invenzione fornisce la capacità di fornire livelli di energia senza precedenti, nell’atmosfera terrestre in aree strategiche, e di mantenere il livello dell’iniezione di potenza specialmente se è impiegato un impulso casuale, in modo molto più preciso e meglio controllato dai sistemi precedenti, specialmente nella detonazione di dispositivi nucleari di vario tipo a diverse altitudini...”.

“...è possibile non solo interferire con le comunicazioni di terzi, ma sfruttare uno o più di tali fasci per effettuare una rete di comunicazioni nel caso in cui nel resto del mondo siano interrotte. In altre parole, ciò che viene usato per interrompere le comunicazioni altrui, può essere impiegato da un individuo ben informato su questa invenzione, allo stesso tempo, come rete di comunicazione”.

“...le grandi regioni dell’atmosfera potrebbero essere alzate ad una quota inaspettatamente alta, in modo che i missili incontrino forze di resistenza inattese e non pianificate, con risultante distruzione”.

“La modifica del clima è possibile, per esempio, alterando i modelli del vento nell’alta atmosfera, creando uno o più “piume” di particelle atmosferiche, che fungeranno da obiettivo o dispositivo di focalizzazione. Le modifiche molecolari dell’atmosfera possono avvenire in modo da poter realizzare conseguenze positive sull’ambiente. Oltre a realmente cambiare la composizione molecolare di una regione atmosferica, una particolare molecola o più molecole possono essere scelte per presenza aumentata. Per esempio, nell’atmosfera si è potuto aumentare artificialmente concentrazioni di ozono, azoto, ecc.”.

Il sistema HAARP ha sede a Gakona, Alaska, ed è costituito fondamentalmente da 180 piloni di alluminio alti 23 metri. Su ogni pilone sono state installate doppie antenne a dipoli incrociati, una coppia per la banda bassa l’altra per la banda alta, in grado di trasmettere onde ad alta frequenza fino ad una distanza di 350 km grazie alla loro potenza. Queste onde sarebbero indirizzabili verso zone strategiche del pianeta, sia atmosferiche che terrestri.
Ufficialmente lo scopo del centro di ricerche HAARP è quello di studiare le proprietà di risonanza della Terra e dell’atmosfera: gli stessi fenomeni studiati da Nikola Tesla cento anni prima in Colorado.

Secondo il sito ufficiale, HAARP può essere utilizzato “per provocare un cambiamento nella temperatura della ionosfera minimo e localizzato, cosicché le risultanti reazioni fisiche possano essere studiate da altri strumenti piazzati nello stesso sito o nei pressi di HAARP”.

La federazione Scienziati Americani ha ammesso un uso militare di HAARP solo per scopi di ricognizione e non distruttivi. Modulando i segnali in frequenze bassissime, cioè onde ELF o VLF, si potrebbe “vedere ciò che succede nel sottosuolo, individuando bunker, silos di missili, e altre installazioni sotterranee di Stati avversi”.

Quindi, ufficialmente, gli scopi di HAARP sono: lo studio della ionosfera (essendo composta da particelle cariche, ioni, possiede la proprietà di riflettere verso terra le onde hertziane) per migliorare le telecomunicazioni; lo sviluppo di nuove tecniche radar, che permettano agevoli comunicazioni con i sottomarini e rendano possibili radiografie di terreni, in modo da rilevare armi od attrezzature a decine di km di profondità.

Apparentemente, quindi, HAARP è un innocuo centro di ricerche con potenzialità applicabili nella difesa nazionale. Tuttavia, tutti gli usi possibili di HAARP non dichiarati (che possono essere messi in pratica nei diversi campi militari: aeronautica, esercito, marina, ecc.), sono allarmanti.


Scheda 2 – Le potenzialità di HAARP

Secondo il sito ufficiale, HAARP può essere utilizzato “per provocare un cambiamento nella temperatura della ionosfera minimo e localizzato, cosicché le risultanti reazioni fisiche possano essere studiate da altri strumenti piazzati nello stesso sito o nei pressi di HAARP”.

Dietro HAARP potrebbe celarsi la sperimentazione di una tecnologia avanzata di irradiamento a radio-onde. Una tecnologia simile sarebbe in grado di alzare e scaldare vaste zone della ionosfera immettendo elevate quantità di energia; far rimbalzare onde elettromagnetiche, capaci di penetrare qualsiasi cosa vivente e/o morta, indietro su determinate località della Terra.

Questo tipo di stimolazione causerebbe modificazioni molecolari della ionosfera, le quali porterebbero a devastanti conseguenze sul clima delle regioni colpite. In poche parole, HAARP, essendo in grado di provocare intenzionali cambiamenti climatici, potrebbe essere utilizzato come arma militare. Inoltre, le onde riflesse sulla superficie terrestre, a causa della loro elevata intensità e capacità di penetrazione, sarebbero in grado di manipolare e disgregare i processi mentali umani.

Nicholas Begich, attivista della campagna contro HAARP, lo descrive come “uno strumento tecnologico super potente che emette onde radio in grado di raggiungere aree della ionosfera, si concentrano su di essa e la riscaldano. In seguito le onde elettromagnetiche rimbalzano sulla terra e penetrano qualsiasi cosa - viva o morta che sia”.

Rosalie Bertel, scienziata di fama mondiale, definisce HAARP come “un gigantesco impianto di riscaldamento che può causare gravi danni alla ionosfera creando dei buchi, ma anche delle lunghe incisioni sullo strato protettivo che evita che il pianeta sia bombardato da radiazioni mortali”.

Secondo Richard Williams, fisico e consulente del laboratorio David Sarnoff di Princeton, HAARP è “un atto irresponsabile di vandalismo globale”. Williams e altri scienziati temono un secondo stadio segreto in cui HAARP “proietterà ancora più energia nella ionosfera. Ciò potrebbe causare un grave danno nella parte superiore dell’atmosfera in un punto da cui si produrrebbero per anni effetti a rapida diffusione su tutto il pianeta per anni”.
(Citato in Scott Gilbert, Environmental Warfare and US Foreign Policy: The Ultimate Weapon of Mass Destruction, http://www.globalresearch.ca/articles/GIL401A.html)

Secondo alcuni scienziati, gli effetti dell’uso sconsiderato di questi livelli di energia nella ionosfera, il nostro schermo naturale, potrebbe essere devastante. Iniettando un’ingente quantità di particelle nella ionosfera, è possibile alterare in maniera irrimediabile l’equilibrio protettivo della Terra, causando una caotica instabilità che potrebbe dare inizio ad una catena di effetti collaterali come ad esempio la distruzione totale dello strato di ozono. Ciò che preoccupa maggiormente è dovuto al fatto che si può prevedere con certezza come la Terra potrà reagire a questo eccesso di radiazioni.


Scheda 3 – Il controllo climatico

Il controllo climatico non solo è possibile e già sperimentato, ma può anche essere usato come arma militare. Il primo esperimento sulla modificazione del clima risale al 1946. In quell’occasione un aereo volò all’interno di una nube spargendo ghiaccio secco: dopo pochi minuti piovve. Qualche anno dopo si ottenne lo stesso risultato utilizzando lo ioduro d’argento. Tecnica messa poi a punto da Israele e largamente utilizzata a partire dagli anni ‘60. Negli Usa, invece, diverse aziende sono specializzate nel controllo degli uragani irrorando al loro interno, attraverso razzi o aerei, sostanze chimiche igroscopiche al fine di assorbire l’acqua e quindi di diminuire la violenza degli uragani. In Cina si combatte la siccità investendo circa 40 milioni di dollari l’anno in tecniche di manipolazione climatica. Pechino ha già annunciato che le Olimpiadi 2008 avverranno sotto il sole. In Russia vengono utilizzate da anni tecniche antinebbia a base di azoto liquido e dal 1995 Mosca ricorre all’inseminazione delle nubi onde evitare la pioggia durante le cerimonie importanti. L’inseminazione consiste nell’irrorare nelle nubi sostanze chimiche a base di azoto liquido attraverso aerei appositamente modificati.

Questo avviene da decenni e i media italiani fingono di accorgersene soltanto oggi (video del TG1). Secondo l’Organizzazione Meteorologica Mondiale, nel 2000 sono stati circa 26 nazioni a condurre esperimenti di alterazione climatica. Tra questi è presente anche l’Italia col ”Progetto pioggia” della Tecnagro. Modificare localmente il clima è quindi possibile con tecniche già collaudate e consolidate da molti anni.

Esistono centinaia di brevetti riguardanti il controllo climatico. Alcuni di essi si possono facilmente trovare attraverso una ricerca su Google Patents oppure direttamente dal sito ufficiale US Patent. In alcuni di questi brevetti si parla esplicitamente di irrorazione di sostanze chimiche nell’atmosfera citando, tra gli altri, bario e alluminio.

A questo punto ci chiediamo: è possibile modificare il clima per scopi militari? La risposta è affermativa dal momento che questo fu possibile già durante la guerra del Vietnam. Da quaranta anni fa ad oggi, la tecnologia si è notevolmente evoluta e con essa anche le tecniche di controllo climatico per scopi bellici. Tecniche di manipolazione e controllo climatico che usufruiscono di sostanze chimiche sparse nell’aria mediante aerei cisterna militari. Le stesse sostanze chimiche che servono al sistema H.A.A.R.P. per potenziare le proprie funzionalità. Sia il Parlamento europeo che quello russo hanno denunciato preoccupazione nei confronti del sistema H.A.A.R.P., definendolo un’arma militare molto pericolosa.

“Gli USA hanno intenzione di effettuare esperimenti scientifici su larga scala tramite il programma HAARP, e non controllati dalla comunità globale, dichiararono i deputati”.
(Interfax News Agency, original Russian, BBC Monitoring, 8 agosto 2002,)

Il sistema H.A.A.R.P. è volto a modificare il clima terrestre, andando a manipolare addirittura lo spettro elettromagnetico con l’uso di onde ELF (Estreme Low Frequencies). A pagina 19 del brevetto che sta alla base del progetto H.A.A.R.P., “Metodo e strumento per alterare un’area nell’atmosfera, ionosfera e/o magnetosfera”, si legge:

“Si suggerisce anche di rilasciare larghe nuvole di bario nella magnetosfera così che la foto ionizzazione aumenterà la densità del plasma freddo, in tal modo da produrre una precipitazione di elettroni attraverso un’accresciuta interazione whistler-mode”.

Secondo questo brevetto, quindi, il plasma aumenta di densità se entra in contatto col bario. Come possono essere create delle nuvole artificiali di bario nella magnetosfera? Il metodo più semplice pare sia attraverso l’utilizzo di appositi aerei.

Lo si legge anche nel brevetto Welsbach, il quale spiega come spargere nell’atmosfera sostanze chimiche quali torio e alluminio utilizzando proprio degli aerei, al fine di riflettere le radiazioni del sole.

Un articolo della Pravda Italia del 27 novembre 2006 recita:

“Sappiamo che i militari statunitensi stanno diffondendo in atmosfera, da anni, per mezzo di velivoli appositi, differenti composti di bario. L’università dell’Alaska ha diffuso il bario nello spazio per studiare le linee del campo magnetico della terra. I militari hanno usato i sali di bario nei cieli di territori nemici, come Libia, Panama, Afghanistan ed Iraq, al fine di cagionare malesseri nella popolazione. Un rapporto recente della base dell’aeronautica di Wright-Patterson conferma che l’aviazione militare sta spruzzando il titanato di bario attraverso tutti gli Stati Uniti ed in Europa per facilitare gli studi avanzati sulle trasmissioni radar (vedi H.A.A.R.P.)” ( http://italia.pravda.ru/science/3889-0 ).

Sostanze come il bario e l’alluminio, quindi, se sparse in grandi quantità e in modo sistematico nell’atmosfera, sono in grado di facilitare le trasmissioni elettromagnetiche di H.A.A.R.P. ottenendo grandi vantaggi sia per quanto riguarda le comunicazioni sia per quanto riguarda il controllo climatico. Quest’ultimo aspetto è proprio l’obiettivo proposto dall’US Air Force nel documento “Un moltiplicatore di forza: possedere il clima entro il 2025”.

“L’aviazione statunitense “riuscirà a controllare il clima” grazie agli investimenti sulle nuove tecnologie e al tentativo di focalizzarne lo sviluppo perché siano usate in azioni di guerra … La modificazione climatica offre a chi combatte numerose opzioni per sconfiggere l’avversario o imporsi ad esso… dall’aumentare le azioni non ostili a disturbare quelle del nemico modificando lievemente i fenomeni meteorologici per portare a termine il dominio delle comunicazioni globali e il controllo dello spazio. Negli Stati Uniti la modificazione climatica sarà integrata nella politica per la sicurezza nazionale e applicata a livello nazionale e internazionale. Il nostro governo perseguirà questa politica, secondo i propri interessi, a vari livelli.
(Air University of the US Air Force, AF 2025 Final Report, http://www.au.af.mil/au/2025/)

”La manipolazione climatica diverrà parte della sicurezza interna e internazionale e sarà sfruttata in maniera unilaterale. Sarà usata a scopi difensivi e offensivi e anche come deterrente. La capacità di generare precipitazioni, nebbia e temporali e di modificare il clima e di creare un clima artificiale, fanno parte di quelle tecnologie integrate che possono far aumentare la capacità statunitense, o diminuire quella degli avversari, di ottenere conoscenza, ricchezza e potere globale”.
(Fonte: University of the US Air Force, AF 2025 Final Report, http://www.au.af.mil/au/2025/).

E’ quindi realistica l’ipotesi che l’aviazione americana sia in grado di manipolare il clima sia a scopo sperimentale sia a scopi militari e segreti. Attraverso H.A.A.R.P. e sostanze chimiche irrorate nell’aria potrebbe addirittura provocare inondazioni, uragani, siccità e terremoti. Non a caso, negli ultimi anni il Dipartimento della Difesa ha destinato elevate somme di denaro allo sviluppo e al perfezionamento di queste tecnologie.

Già nel 1976 l’Enciclopedia Militare Sovietica espose il rischio che gli Stati Uniti, per via elettromagnetica o per via astronautica, potessero modificare il clima dell’Eurasia lacerando lo strato di ozono sopra l’URSS. L’Unione Sovietica si accordò poi con gli USA affinché fosse proibito l’uso dei cambiamenti climatici ambientali.

Il 5 febbraio 1998 la sottocommissione “Sicurezza e disarmo” del Parlamento europeo chiede che “un organismo indipendente” valuti “l’impatto sull’ambiente e l’ecologia dello Haarp”. Gli USA non partecipano e non inviano alcun loro delegato. La risposta è stata: la commissione non è competente a porre il problema: segreto militare.

Nella relazione sull’ambiente depositata il 14 gennaio 1999 sulla sicurezza e la politica estera della commissione per gli affari esteri, il Parlamento Europeo si dimostra preoccupato per l’utilizzo delle risorse militari (in particolare del sistema HAARP) che arrecano danni irreparabili all’ambiente. In questo documento, il sistema H.A.A.R.P. viene descritto come:

“La commissione per la protezione dell’ambiente, la sanità pubblica e la tutela dei consumatori: considera il SISTEMA MILITARE USA di manipolazione ionosferica, H.A.A.R.P., con base in Alaska - che è solo una parte dello sviluppo e dell’impiego di armi elettromagnetiche ai fini della sicurezza sia interna che esterna - un esempio della più grave minaccia militare emergente per l’ambiente globale e la salute umana, dato che esso cerca di manipolare a scopi militari la sezione della biosfera altamente sensibile ed energetica, mentre tutte le sue conseguenze non sono chiare”.

Nel 2002, il Parlamento Russo, la Duma, rilascia un documento firmato da 188 deputati nel quale si sostiene che l’esercito statunitense aveva programmato di collaudare le tecniche per intervenire sul clima nel sito in Alaska e in altri due siti:

“I membri delle commissioni riportarono che gli USA avevano deciso di collaudare tre siti del genere. Uno di questi si trova nel territorio adibito ai test militari in Alaska e i test completi avrebbero dovuto cominciare agli inizi del 2003. Il secondo e il terzo si trovano in Groenlandia e in Norvegia”.

“Quando questi siti, in Alaska, Groenlandia e Norvegia, diverranno operativi, si creerà una linea chiusa con un potenziale fortissimo in grado di influenzare i mezzi vicini alla terra”.

“[H.A.A.R.P. è, ndr] un esperimento su vasta scala, e al di fuori di ogni controllo internazionale, per guastare gli apparecchi di comunicazione installati su mezzi e missili spaziali: un’arma capace di provocare gravi interruzioni sulle reti elettriche, sugli apparecchi di pompaggio degli oleodotti e di provocare danni alla salute mentale di popolazioni di intere regioni”.

“Sotto il programma HAARP, gli Stati Uniti stanno creando nuove armi geofisiche integrali, che possono influenzare gli elementi naturali con onde radio ad alta frequenza. Il significato di questo salto è comparabile al passaggio dall’arma bianca alle armi da fuoco, o dalle armi convenzionali a quelle nucleari”.

Fonte: www.ilbenecomune.net


TANKER ENEMY TV: i filmati del Comitato Nazionale

domenica, aprile 20, 2008

Divario (articolo di Zret)

Pochi si accorgono dell'enorme divario che separa il settore tecnologico delle energie e della motorizzazione da altri ambiti: il primo, infatti, si basa su invenzioni e principi vecchi di secoli (la prima macchina a vapore, l'eolipila, fu inventata da Erone di Alessandria nel I secolo a. C.!), mentre in altri campi sono stati creati dispositivi e strumenti che, a stento, alcuni profetici e visionari autori di romanzi fantascientifici poterono immaginare.

Oggi esistono computers quantistici dalle prestazioni e dalla memoria prodigiose; sono stati creati strumenti per proiettare immagini olografiche pressoché indistinguibili dalla realtà; sono già impiegate micidiali armi elettromagnetiche, al plasma, soniche, ordigni che uccidono i civili, ma lasciano intatti edifici ed infrastrutture. Tecnici e scienziati hanno già costruito carri armati ed aeroplani letteralmente invisibili. Lo spazio sta per essere colonizzato (o lo è già?). Le nanotecnologie consentono di rilasciare farmaci nell'organismo, secondo la posologia necessaria, ma soprattutto di trasformare le persone in esseri bionici. Nel campo delle telecomunicazioni assistiamo ad un'esplosione di ritrovati mirabolanti: in pochi anni, si è passati dal cellulare (un'arma di distruzione di massa) utile per ricevere telefonate e per chiamare, ad un congegno che invia messaggi, fotografie, filmati e con cui ci si può collegare alla Rete. I sistemi wireless si diffondono sempre più: in pochi anni le persone potranno ricevere e trasmettere dati semplicemente poggiando un dito su un'interfaccia. Un sistema satellitare gestirà le comunicazioni ed ogni persona sarà un terminale di un gigantesco server. Già oggi esistono apparati per il riconoscimento personale che si basano sull'iride, macchine per leggere il pensiero, insetti bionici che spiano. E' inoltre adoperato un sistema molto sofisticato per gestire la vergognosa operazione scie chimiche, con l'impiego di giganteschi droni.

Potrei continuare a lungo con questa rassegna di "meraviglie", ma mi fermo qui. Infatti vorrei chiedermi per quale motivo le persone non notano il gap tra queste mirabolanti tecnologie e l'arretratezza preistorica che connota la produzione di energie: ricorriamo a combustibili inquinanti, alla diabolica fissione nucleare, viaggiamo su automobili che hanno ancora i pistoni, incineriamo i rifiuti con conseguenze rovinose per la salute e per l'ambiente, laddove i militari usano da tempo l'energia del punto zero e motori antigravitazionali. Non è possibile che in un ambito la tecnologia si sia incagliata e che, in tutti gli altri, invece, abbia bruciato le tappe.

La verità è un'altra: mentre le élites, avvalendosi forse anche del contributo della retroingegneria, sono anni luce distanti dall'era del petrolio e dell'uranio, alle popolazioni sono concesse tecnologie antiquate o anche di nuova generazione (reti wireless), ma dannose. Tutte le scoperte scientifiche e mediche, che potrebbero migliorare la vita, liberarci dalla schiavitù degli idrocarburi e dalle varie forme di inquinamento, sono appannaggio di pochi privilegiati, mentre tra la popolazione sono diffusi marchingegni inutili o che, dietro apparenze rutilanti, si rivelano perniciosi sul piano fisico e psicologico.


La truffa dell'energia nucleare, la truffa degli inceneritori, la truffa della videosorveglianza e del controllo, la truffa della genetica: solo questo per i cittadini. In tal modo, la tecnologia dei potenti, figlia degenere di una scienza blasfema, rischia di distruggere l'ultimo residuo di vera umanità.


Fonte: Zret Blog

domenica, settembre 30, 2007

Il rapporto Staninger (terza parte)

>> Leggi qui la prima parte <<

>> Scarica qui l'intero documento in formato PDF <<


Disintossicazione

Gli enzimi della fase 1 e della fase 2 convertono le sostanze chimiche estranee in forme che possono essere facilmente espulse; esse sono spesso riferibili agli enzimi di disintossicazione. Comunque dovrebbe essere sottolineato che la biotrasformazione non è strettamente legata alla disintossicazione. In un certo numero di casi, i prodotti del metabolismo sono più tossici dei composti originali. Questo è particolarmente vero per alcuni composti chimici cancerogeni e per un numero di sostanze che causano la necrosi cellulare del polmone, del fegato e del rene. In molte circostanze, un metabolita tossico può essere isolato ed identificato. In altri casi, sostanze intermedie altamente reattive, vengono formate durante la biotrasformazione di una sostanza chimica. Il termine “bioattivazione” è spesso usato per indicare la formazione enzimatica delle sostanze intermedie reattive. Si pensa che esse determinino gli eventi che portano alla morte della cellula, al tumore indotto chimicamente, alla teratogenesi e ad altre patologie.

Le persone malate di Morgellons hanno le reazioni contrarie della fase 1 e 2, poiché esse sperimentano parametri fisiologici specifici come bassa temperatura corporea, pressione sanguigna elevata, alta conducibilità dell’urina, gel e fibre fluorescenti sul corpo simili a microscopici tatuaggi fluorescenti. Tutti i pazienti affermano di aver percepito come la puntura di un ago, attraverso la pelle e soffrono di un insopportabile prurito.


Nanotecnologie

La nanotecnologia presenta nuove opportunità per creare migliori materiali e prodotti. Da tempo, nanomateriali sono disponibili sul mercato statunitense, nell’ambito dell’abbigliamento, dei tessuti, dei computers, dei cosmetici, dell’equipaggiamento sportivo e degli strumenti medici. Un quadro generale della ricerca Mtech relativo alle società che lavorano nel campo della nanotecnologia, ha identificato circa 80 prodotti e più di 600 materiali grezzi, componenti intermedi ed articoli industriali che sono usati dai produttori. La nostra economia sarà sempre più condizionata dalla nanotecnologia, quanto più si diffonderanno i prodotti contenenti nanomateriali che passeranno dal campo della ricerca e dello sviluppo a quello della produzione e del commercio.

La nanotecnologia ha anche la potenzialità di migliorare l’ambiente, sia attraverso le applicazioni dirette dei nanomateriali per individuare ed eliminare gli inquinanti, sia indirettamente, usando la nanotecnologia per sviluppare processi industriali più puliti e per creare prodotti ecocompatibili. Tuttavia esistono domande senza risposta sull’impatto dei nanomateriali e dei nanoprodotti sulla salute umana e sull’ambiente e l’E.P.A. ha l’obbligo di assicurare che i rischi potenziali siano adeguatamente compresi per proteggere la salute umana e l’ambiente. Dal momento che i prodotti nanotecnologici diventano sempre più numerosi e diffusi nell’ambiente, l’E.P.A. sta considerando come agire circa i progressi della nanotecnologia per rafforzare la protezione ambientale. Inoltre sta esaminando l’impatto delle nanotecnologie in relazione ai programmi ambientali, alle esigenze di ricerca ed agli approcci decisionali. Attualmente l’unico codice di regolamentazione che mira a valutare il rischio ambientale delle nanotecnologie, fa capo alla città di Berkley, in California. Alcuni esempi di questa tecnologia applicata alla ricerca privata si riferiscono alla composizione di fibre usate per indirizzare le ricerche.

Iniettori di nano tubi di carbonio - Un nano tubo al carbonio unito a punti quantici rivestiti di streptavidina, sviluppato da Xing Chen, Andrax Kis, Alex Zetti e Carolyn Bertozzi della Università della California di Berklely. La loro caratteristica unica è la capacità di trasferire i geni.

Nanomotore – Carlo Montemagno della Cornel University ha creato un motore molecolare delle dimensioni pari ad un quinto di un globulo rosso. I componenti chiave sono le proteine dell’Helicobacter Coli, attaccato ad un asse di nichel e ad un’elica che è alimentata dall’ATP, l’energia che l’organismo stesso usa per tutte le funzioni vitali. Questo motore molecolare, però, funziona con un’efficienza che va dall’1 al 4%, notevolmente inferiore a quella degli organismi viventi, che possono raggiungere un’efficienza del 100%.

Nanobombe - I ricercatori del Michigan hanno creato nanobombe intelligenti che sono in grado di aggirare il sistema immunitario e di introdursi nelle cellule malate per ucciderle o per diffondere dei farmaci.

Nanoelettrosensori – Strumenti elettronici che possono far secernere specifici ormoni alle cellule, allorquando l’organismo ne ha bisogno e generatori di elettricità che si autoassemblano all’interno della cellula.

Nanofarmaci - Un’altra idea è quella di interagire direttamente con le cellule, così che esse possano essere trasformate in “industrie farmaceutiche” per produrre medicine su richiesta. Milan Mrksich, chimico dell’Università di Chicago, progetta di agganciare le cellule a circuiti elettronici legandoli ad un tappeto di bracci molecolari. Catene di carbonio della lunghezza da 10 a 20 atomi, sono attaccate ad una lamina dorata con atomi di zolfo. I trefoli sono addensati così strettamente che stanno dritti sulla superficie. Ciò crea una “boscaglia” di villi metallici appiccicosi molecolari, per catturare e manipolare le cellule.

Punti quantici, nanoparticelle, nanotubi di carbonio (nella microelettronica) ed altri nanostrumenti usa e getta, possono costituire nuove classi di nanospazzatura di inquinanti ambientali non bio-degradabili che potrebbero causare patologie assimilabili ad una subdola forma tumorale da amianto (asbestosi).

Il quadro delle possibili reazioni immunitarie avverse è già stato precisato. Gli scienziati hanno già sviluppato materiali sintetici che non causano (?) problemi quando vengono introdotti nell’organismo, a cominciare dalle protesi di silicone per il seno. Gli strumenti nanotecnologici sono peggiori. David Williams, consigliere dell’unione Europea per i problemi della percezione delle tecnologie mediche afferma: “Il corpo umano è disegnato per respingere o attaccare agenti estranei delle dimensioni di una cellula”. Ancora peggio, gli strumenti nanotecnologici potrebbero inibire il sistema immunitario irreversibilmente.

Se strumenti così piccoli sono in grado di sfuggire al sistema immunitario, ci si chiede quali saranno gli effetti sulle membrane cellulari, sul nucleo del DNA e sulla sua membrana. Se i nanomateriali sono costituiti da plasmidi di funghi, batteri o virus, questi nuovi materiali si mescoleranno e si legheranno ai nostri costituenti interni delle cellule? (Mutazione genetica – ndr)


Le nanotecnologie e l’ambiente

Nel libro bianco del NIOSH sulle nanotecnologie, si afferma specificamente che i nanomateriali sono così piccoli che essi non danneggiano le cellule viventi. Tuttavia, recenti studi sull’uso dei nanotubi nei polmoni dei ratti, hanno dimostrato che essi si ammalano o muoiono dopo il trattamento.

Nel progetto FMN, due persone affette da Morgellons hanno sottoposto dei campioni ad un’analisi che si è avvalsa del microscopio elettronico; i campioni sono stati confrontati con il materiale di ricaduta delle scie chimiche diffuse nei cieli del Texas. L’esame ha rivelato che il materiale in tutti i campioni erano rintracciabili vari stadi di sviluppo o degradazione delle sostanze trovate negli ospiti (Anna e Lilly): il campione delle scie chimiche corrisponde a quello delle donne esaminato. I campioni provenivano da zone distanti 1.500 miglia l’una dall’altra.

Il nostro ambiente ha visto i risultati della diffusione di sostanze chimiche nel suolo, nell’acqua e nell’aria. Il DDT immesso rapidamente sul mercato quasi quarant’anni fa dalla American Bald Eagle, è stato un esempio perfetto di come una sostanza chimica può danneggiare la catena alimentare di altri animali. I nanomateriali, che vengono diffusi nei fiumi e nell’aria, sono una bomba ad orologeria per l’ambiente. E’ importante sia per gli scienziati sia per l’opinione pubblica controllare da vicino gli sviluppi della nanotecnologia e discernerne i fatti reali, per determinare se realmente può migliorare la nostra vita senza compromettere la dignità e l’integrità della specie umana.

Dott. ssa
Hildegarde Staninger
Traduzione di Zret & Straker



Un particolare ringraziamento va alla Dottoressa Staninger per la fattiva collaborazione.

REFERENCE(s)

1. Amdur, Mary O., J. Doull, and C.D. Klaassen. Casarett and Doull's Toxicology: The Basic Science of Poisons, 4th Edition. Chapter 4: Biotransformation of Toxicants by I. Glenn Sipes and A. Jay Gandolfi. Pergamon Press. New York. © 1991. Pgs. 88 ­ 126.

2. Staninger, Hildegarde. Far-Infrared Radiant Heat (FIR RH) Type Remediation for Mold and Other Unique Diseases. National Registry of Environmental Professionals. Annual Conference in Nashville, Tennessee. NREP, Des Plaines, IL © October 18, 2006,
http://www.dldewey.com/stan.htm
3. Staninger, Hildegarde. 'Size Matters'
http://www.rense.com/morgphase/sizematters.htm © March 2007

4. Dutton, G.J. Glucuronidation of Drugs and Other Compounds. CRC Press, Inc.. Boca Raton, FL. © 1980

5. Guengerich, F.P. and Liebler, D.C. Enzymatic activation of chemicals to toxic metabolites. CRC Crit. Rev. Toxicol. 14:259-307. © 1985

6. Hawkins, D.R. (ed): Biotransformaitons. Vol. 1: A Survey of the Biotransformations of Drugs and chemicals in Animals. Royal Society of Chemistry. London. © 1988

7. Weber, W.W. The Acetylator Genes and Drug Response. Oxford University Press. New York. © 1987

8. U.S. EPA Environmental Protection Agency. External Review Draft Nanotechnology White Paper. Science Policy Council. U.S. EPA, Washington, D.C. December 2, 2006,
http://www.epa.gov/osa/nanotech.htm

9. City of Berkley, California County Commissioner's Meeting. Testimony of
Dr. Edward Spencer and other public citizens on the risk of
nanotechnology to the environment. (City developed an
ordinance/regulation to evaluate the risk to the environment from
nanotechnology.) Berkley, California © 2006,
http://www.seektress.com/berkeley.htm

10. Staninger, Hildegarde. Project: Fiber, Meteroite & Morgellons. Phase I and II.
http://www.rense.com/morgphase/phase2_1.htm, © March 2007.

11. Ho, Mae-Wan. Nanotecnology, a Hard Pill to Swallow.
http://www.i-sis.org.uk/nanotechnology.php © July 16, 2007

12. Lam, et. al. Pulmonary Toxicity of Single-Walled Carbon Nanotubes in Mice 7 and 90 Days after Intratracheal Instillation. Toxicol. Sci. 77:126-134 © 2004

13. Staninger, Hildegarde. Project: Fiber, Meteroite & Morgellons. Phase I and II.
http://www.rense.com/morgphase/phase2_1.htm © March 2007

14. Environmental Defense Fund & Dupont. Brochure: NANO Risk Framework. (http://www.dupont.com/ & http://www.environmentaldefensefung.com/)

domenica, luglio 15, 2007

La prova (the proof)

I mendaci piloti di MD-80.it, tra tante balordaggini, ripetono una cosa giusta sino alla nausea, ovvero: "Le scie di condensa si formano ad elevate altitudini (in genere sopra gli 8.000 metri) e con fattori elevati di umidità". Gli stessi agenti infiltrati, presenti su tutti i forum di discussione che affrontino l'argomento "scie chimiche", insistono col dire che le quote basse, da noi spesso evidenziate nel sorvolo dei tankers, anche in base a valutazioni oggettive (visibilità del velivolo ad occhio nudo, passaggio radente sotto gli stratocumuli, velocità di attraversamento dell'orizzonte, propagazione del suono etc.), sono prive di qualsiasi fondamento. In definitiva, tutto il castello di menzogne costruito intorno all'"operazione copertura", si basa sulla seguente affermazione: "Non esistono voli a bassa quota! Quelli che osservate sono semplici aerei di linea che incrociano a quote uguali o superiori agli ottomila metri, per cui, quelle che vedete, sono scie di condensa e non sono assolutamente scie chimiche!".

SBAGLIATO! Anzi... BUGIARDI! e qui vi mettiamo a tacere una volta per tutte!

L'idea

E' possibile, senza far uso di strumenti specifici, dal prezzo proibitivo e di difficile reperimento, valutare la quota di volo di un'aviocisterna chimica durante il suo sorvolo sulla verticale dell'osservatore? E' possibile dimostrare che essi non volano alle tipiche altitudini "da crociera"? La risposta è affermativa e la soluzione è semplicissima.


La soluzione

In nostro aiuto viene la tecnologia laser di puntamento astronomico a fascio di luce verde. Questo tipo di laser ha la capacità di emettere un raggio di luce concentrato e ben visibile anche a notevole distanza. Al contrario dei laser a luce rossa, un buon dispositivo di puntamento a luce verde, è in grado di coprire una distanza di circa 3.500/4.000 metri. Questa portata è l'ideale per rispondere alla nostra domanda, ovvero: "I velivoli che percorrono in lungo ed in largo l'Italia e gran parte dei paesi N.A.T.O., volano veramente a quote idonee alla formazione delle contrails? Essi superano gli ottomila metri o è vero il contrario? A quale altitudine sorvolano le nostre città allora?

A queste domande si può non solo rispondere, ma siamo stati in grado, con un metodo semplice ed intuitivo, di dimostrare quanto sino ad oggi abbiamo affermato e cioè che "Gli aerei impegnati nelle operazioni di aerosol chimico/biologico, non raggiungono nemmeno i 4.000 metri, quota di volo di certo non idonea alla formazione delle fantomatiche scie di condensa.

Obiettivo

Collimare un tanker chimico, facendo uso di un puntatore laser a fascio di luce verde, di "gittata" non superiore ai 4.000 metri.

Obiettivo conseguito con pieno successo. Volevate la prova che volano bassi? L'avete!

I fotogrammi ed il filmato dimostrano, senza ombra di dubbio, che i velivoli impegnati nelle irrorazioni chimico/biologiche, volano a quote relativamente basse. Se, infatti, il fascio di luce laser è in grado di collimare (ed illuminare) sia l'aereo sia la scia chimica, significa che il tanker non supera i 3500/4000 metri di quota, corrispondenti alla portata massima del puntatore laser verde che, anzi, sembra oltrepasssare la sagoma dell'aviocisterna, facendo supporre quote inferiori alla portata del puntatore laser. E' palese che, se questi velivoli sorvolassero a quote superiori, il laser non potrebbe illuminarne l'aereo né la scia al seguito.

E' così definitivamente confutata la teoria delle scie di condensa e delle altitudini di volo uguali o superiori agli 8.000 metri, necessarie, in concomitanza con particolari condizioni di umidità, pressione e temperatura, alla formazione delle contrails.

La 'penna' laser puntata verso il mare prospiciente il porto di Sanremo, ad oltre 1.800 metri di distanza.

La 'penna' laser puntata verso il mare prospiciente il porto di Sanremo, ad oltre 1800 metri di distanza.We pointed a chemical tanker with a laser pen. It is the proof that aerosol operations were made at low altitude, circa 3 miles. This demonstrates that we see chemtrails and not contrails which are generated only over 8/9 KM.

Video:

http://www.youtube.com/watch?v=k6XHqIavdJ0


http://img154.imageshack.us/img154/8549/lasercostaok5.jpg


martedì, maggio 29, 2007

Apocalisse ecologica: perchè tutte le api stanno morendo?

OGM, sostanze chimiche tossiche e scie chimiche stanno distruggendo l'eco-sistema, minacciando la sopravvivenza stessa dell'umanità.

Di Paul Joseph Watson - 13 Aprile 2007

10 Aprile 07 -- L'allarmante declino nelle popolazioni delle api in tutti gli Stati Uniti e l'Europa rappresenta una potenziale apocalisse ecologica, una catastrofe ambientale che potrebbe far crollare la catena alimentare e spazzare via l'umanità. Chi e cosa è dietro a questo flagrante abuso dell'eco-sistema?

Molte persone non comprendono il ruolo vitale delle api per il mantenimento di un eco-sistema equilibrato. Secondo gli esperti, se le api dovessero estinguersi allora l'umanità sarebbe destinata a perire dopo soli 4 anni.

“Se le api sparissero dalla superficie del globo allora all'uomo resterebbero solo quattro anni di vita. Niente più api, niente più impollinazione, niente più piante, niente più animali, niente più uomo,” ha detto Albert Einstein.

Altri diranno che è allarmista affermare che all'uomo resterebbero solo quattro anni e che sarebbe capace di trovare altre fonti di alimentazione, ma rimane comunque il fatto che la scomparsa delle api è potenzialmente devastante per l'agricoltura e per la vita della maggior parte delle piante.

I resoconti secondo i quali la popolazione delle api sta declinando ad un tasso più alto dell'80% in molte zone degli Stati Uniti e dell'Europa dovrebbe far suonare il campanello d'allarme e rendere inevitabile la richiesta di un'azione immediata da parte delle organizzazioni ambientaliste. Gli esperti chiamano questa preoccupante tendenza il “colony collapse disorder” o CCD.

“Il numero delle api in alcune zone della costa orientale e in Texas è precipitato di più del 70%, mentre la California ha visto le proprie colonie ridursi da un minimo del 30 fino ad un massimo del 60%, “ è quanto ha riportato AFP.

“Attualmente circa il 40 percento delle mie 2000 colonie sono morte e questo è l'inverno con la più grande mortalità di colonie a cui ho mai assistito durante i miei 30 anni come apicoltore,” ha recentemente dichiarato al Congresso Gene Briandi, della Associazione Apicoltori della Stato della California.

L'articolo afferma che le colonie di api negli Stati Uniti si stanno riducendo fin dal 1980, e che il numero di apicoltori si è dimezzato.

Fino ad ora gli scienziati sono sconcertati su ciò che sta causando il declino, escludendo i parassiti ma preferendo attribuire la responsabilità ad una qualche nuova tossina o prodotto chimico che viene usato nell'agricoltura. “Gli esperti credono che negli Stati Uniti l'uso su larga scala di piante modificate geneticamente potrebbe essere un fattore in gioco,” riporta il giornale Tedesco Spiegel Online.

In tutta la Germania le popolazioni di api sono simultaneamente calate del 25% arrivando fino all'80% in alcune zone. La Polonia, la Svizzera e la Spagna riportano di declini del tutto simili. Alcuni studi hanno mostrato che le api non muoiono nell'alveare, c'è qualcosa che è capace di fargli perdere il senso dell'orientamento fino al punto che non possono farvi ritorno. Gli alveari abbandonati non vengono saccheggiati da altri insetti a causa del miele, cosa che normalmente accade quando le api in maniera naturale muoiono durante l'inverno, e questo chiaramente suggerisce che una qualche tossina velenosa li tiene lontani.

“In molti casi, gli scienziati hanno scoperto la presenza di quasi tutti i virus conosciuti che riguardano le api nelle poche api sopravvisute negli alveari dopo che la maggior parte di loro era sparita. Alcune presentavano 5 o 6 infezioni allo stesso tempo ed erano infestate dai funghi – un segno, dicono gli esperti, che il sistema immunitario di questi insetti potrebbe essere crollato.”

Uno studio dell'Università di Jena, condotto dal 2001 al 2004, ha mostrato che tossine da un variante del granoturco modificato geneticamente e il cui scopo è quello di tener lontani gli insetti, quando è combinato con un parassita, causa un “declino nel numero delle api significativamente maggiore” del normale.

Secondo Hans-Hinrich Kaatz, un professore dell'Università di Halle nella Germania orientale e il direttore dello studio, la tossina batterica che è presente nel grano modificato geneticamente potrebbe aver “alterato la superficie degli intestini delle api, indebolendole a sufficienza e permettendo ai parasiti un facile accesso – o forse è avvenuto nella maniera opposta. Non lo sappiamo.”

Kraztz voleva disperatamente continuare i suoi studi, ma i fondi sono stati tagliati.

Mentre i governi sono intenti ad indottrinarci sulla necessità di modificare il nostro stile di vita e introducono nuove tasse per il supposto pericolo del riscaldamento globale causato dall'uomo, una catastofe ambientale che potrebbe eliminare la razza umana in un figurativo battito d'ali si va profilando.

Per quale ragione le più importanti organizzazioni e gruppi di pressione ambientalisti stanno ignorando questa minaccia mastodontica per la nostra esistenza? Dov'è Greenpeace?

L'iperbole che circonda il riscaldamento globale causato dall'uomo sta ingoiando tutta l'attenzione mentre veri pericoli come il rapido e mortale declino nella popolazione delle api e il suo legame con gli OGM vengono ampiamente evitati dai governi e dalle fondazioni degli attivisti.

È una forzatura ipotizzare che le inaffiature dei raccolti imposte dal governo con mortali prodotti chimici come pure le sostanze tossiche contenute nelle scie chimiche potrebbero essere parte di un deliberato programma per eliminare la popolazione delle api? O è un altro esempio di come il big business in maniera flagrante abusa dell'eco-sistema al solo scopo di far salire i propri profitti?

In numerose occasioni le elite hanno affermato pubblicamente il proprio desiderio di ridurre significativamente la popolazione mondiale. Giusto ieri abbiamo pubblicato un articolo su di un resoconto del Ministro della Difesa del Governo Inglese nel quale si postula il ricorso ad armi batteriologiche per ridurre la popolazione umana in meno di 30 anni.

Portare alla totale estinzione delle api rappresenterebbe un metodo rapido e facile a negarsi per causare la riduzione della popolazione globale, a lungo sognata dai maniaci psicopatici che controllano il mondo.

In ogni caso, questa questione rappresenta una schiacciante minaccia per la catena alimentare e un crimine ambientale del grado più alto, per il quale i suoi perpetratori devono essere trascinati in giudizio sotto accusa di tentativo di genocidio, se si dovesse dimostrare il tentativo deliberato di danneggiare la catena alimentare, e le sostanze chimiche responsabili di tutto questo dovrebbero essere immediatamente proibite.

Per favore fate circolare questo articolo e inviatelo a gruppi ambientalisti richiedendo che investighino su chi e cosa sta uccidendo le nostre api!

Traduzione a cura di Melektro per www.radioforpeace.info &
www.comedonchisciotte.org
http://www.radioforpeace.info/articolinuovaera/itapiece246.htm

Approfondimento:
http://sciechimiche-zret.blogspot.com/2007/04/la-moria-delle-api-perch.html

Scienza e conoscenza per combattere l'etnocidio

di Etleboro Emilia Romagna

E’ ormai in atto nel mondo un processo di disumanizzazione del sistema ed annientamento degli stati nazionali, con il conseguente generarsi di zone di influenza geopolitica, ognuna di esse sovrastata da sistemi piramidali di regime. Questo perché tutto il sistema economico ruota esclusivamente intorno ad un unico modello di sostenibilità, in alternativa allo stato permanente delle cose, ma in realtà esistono innumerevoli altre soluzioni che non devono essere rivelate poiché danno agli individui libertà e indipendenza in nome del beneficio comune. Tutto oggi ruota intorno al controllo dell’acqua, che rappresenta la fonte di vita e di energia per eccellenza: da questo il controllo del clima e le decisioni di privatizzazione degli acquedotti. Per raggiungere tali scopi i governi attuano un sistematico controllo climatico mediante le scie chimiche, che hanno come obbiettivo primario, quello di impedire le precipitazioni e ciò porterà a danni ingenti alle coltivazioni su scala mondiale, per poi indurre la società all’utilizzo massivo degli OGM resistenti alla siccità. E’ questo un punto evidenziato anche dai TG di mezza Italia, che non fanno altro che spiattellare a più non posso le percentuali di utilizzo dell’acqua, per prepararci psicologicamente all’inevitabile destino impostoci dalle multinazionali.

Il mercante in fiera

Aggiungi al profilo personale Altri video

In preparazione di ciò i media sono sempre pronti ad asservire i poteri forti e nel mezzo di questa “emergenza idrica” le cifre, comunicate dalle autorità "competenti" parlano di un abuso di acqua soprattutto nel campo agricolo. Contribuiscono in questo modo all’accettazione psicologica del cambiamento, in previsione di una crisi indotta ed irreale. Alcuni pseudo-scienziati, invece, indicano le chemtrails come inesistenti. Mi riferisco in particolare al "meteorologo" Luca Mercalli, ed al suo omologo militare Guido Guidi. Non da meno è Guidi, che essendo un militare, avrebbe come dovere primario, la difesa del territorio nazionale e della popolazione civile, dovere che viene meno a seguito delle sue dichiarazioni, in quanto resosi complice di un atto terroristico. In alternativa, se i due elementi in questione non sanno di cosa parlano, sarebbe preferibile che non venissero più mostrati nei canali televisivi, considerata la loro plateale incompetenza.

Il primo, in particolare, fa notare che, per accertare la natura di questa “bufala delle scie chimiche”, bisognerebbe salire in quota e campionarle, quindi sottoporle ad analisi. Questa potrebbe sembrare una dichiarazione obiettiva, se non fosse che l’attuale tecnologia permette di eseguire le medesime analisi agevolmente. In particolare mi riferisco alle tecniche di telerilevamento LIDAR (acronimo di Light Detection And Ranging), che non necessitano di un contatto diretto col materiale da analizzare. Con il LIDAR il monitoraggio dell’aria e dell’acqua può essere compiuto in modo conveniente e flessibile per mezzo di controlli continui ed estesi degli scenari da esaminare; con questo strumento è infatti possibile acquisire informazioni sia sulle caratteristiche geometriche sia su quelle chimico-fisiche del bersaglio.



Si tratta in buona sostanza di un sistema che ha una forte analogia di principio con il RADAR: mentre questo però opera nel campo delle radiofrequenze, nel caso del Lidar, la radiazione elettromagnetica inviata sul bersaglio è nella regione delle frequenze ottiche. Nella sua forma più schematica, il Lidar è costituito da una sorgente laser, un telescopio ed un sistema per la rilevazione ed acquisizione del segnale retrodiffuso dal bersaglio. La sorgente laser, di solito impulsata, emette un fascio che è inviato sul bersaglio da un sistema ottico opportuno. Il segnale retrodiffuso, raccolto dal telescopio e trasformato dal rilevatore in un segnale elettrico proporzionale alla potenza ottica ricevuta, può essere risolto sia in tempo sia in frequenza. Nel primo caso si ottiene una definizione spaziale tramite processi di riflessione e di diffusione elastica, che avvengono cioè alla stessa lunghezza d’onda del fascio laser; il processo di diffusione predominante in atmosfera è proprio la retrodiffusione elastica dovuta agli aerosol (diffusione di Mie) o alle molecole (diffusione di Rayleigh). Nel secondo caso invece si hanno informazioni sul materiale di cui è composto il bersaglio analizzando spettralmente i processi anelastici (ovvero relativi a lunghezze d’onda diverse da quella del fascio laser) che danno luogo al segnale retrodiffuso. Tali apparati sono presenti sia nei satelliti meteo sia nelle sonde interplanetarie per l’analisi dell’atmosfera dei pianeti, e quindi non può esistere un meteorologo che si definisca tale e che non conosca questa tecnologia.

True Lies - Bugiardi!

Aggiungi al profilo personale Altri video

(...)

lunedì, maggio 28, 2007

Cellulari alla sbarra

Le interazioni tra il cervello ed i campi di microonde e radiofrequenza prodotte dai cellulari
DEL PROFESSOR W. ROSS ADEY
Global Research / International Encyclopedia of Neuroscience (Terza edizione; a cura di Smith e G. Adelman, 2003)

I campi di radiofrequenza (30KHz-300MHz) e di microonde (300-3000MHz) non esistono come componenti significative del naturale campo elettromagnetico terrestre. Pertanto, la nostra generazione è la prima ad esporsi volontariamente a campi di microonde e radiofrequenza artificiali che includono un vasto spettro di frequenze ed intensità. Nei comuni ambienti periferici, questi campi da poco introdotti arrivano ora ad avere un'intensità che si aggira intorno a 1µW/cm² (4V/m).

I tipici telefoni cellulari emanano in media una potenza di 0,2-0,6 W. Se tenuti in mano e utilizzati vicino alla testa, questi livelli si alterano bruscamente, dato che il 40% dell'energia emanata dal telefono viene assorbita e dalla mano e dalla testa (Kuster et al., 1997). Usato in questo modo, un telefono cellulare può essere considerato alla stregua di un radiotrasmettitore alquanto potente. La sua emissione di energia sulla superficie della testa è generalmente 10.000 volte più forte rispetto ai campi che raggiungono un utente che si trovi a meno di 30 metri di distanza dalla base di un tipico ripetitore per cellulari collocato su una torretta a 30 metri dal suolo.

1. Lo sviluppo storico del sistema di trasmissione analogico e digitale dei telefoni cellulari

Nel corso dell'ultimo decennio, la rapida diffusione su scala mondiale dei sistemi di comunicazione con telefonia cellulare ha comportato un altrettanto rapido progresso tecnologico. Di conseguenza, molti degli attuali utenti di telefonia mobile sono stati esposti ad una sequenza di campi di microonde modulati in diversi modi (Adey, 1997). All'inizio il segnale vocale veniva universalmente espresso con modulazioni di frequenza (FM) dell'onda portante. Dal punto di vista biofisico, l'onda portante mantiene un'ampiezza costante per tutto il periodo della trasmissione, dal momento che ogni segnale vocale viene trasmesso nel campo della frequenza. Sebbene questi sistemi di modulazione di frequenza detti analogici vengano ancora comunemente utilizzati, considerazioni radiotecniche, come il risparmio dell'energia usata per telefonare e l'utilizzo ottimale del limitato spettro di microonde disponibile, hanno portato progressivamente alla generale adozione di tecniche di trasmissione digitale (Kuster et al., 1997). I primi sistemi di trasmissione utilizzavano frequenze da 400MHz, quelli attuali invece trasmettono generalmente a 800 e 1800 MHz.

Un esempio di queste tecniche è dato da due metodi di modulazione digitale ora ampiamente utilizzati nei sistemi di telefonia mobile: il North American Digital Cellular (NADC), utilizzato in Nord America, e il Time Division Multiple Access (TDMA), impiegato in Giappone, ovvero una modulazione che codifica il discorso con una velocità di 50 impulsi al secondo. Il metodo utilizzato dal Global System for Mobile Communication (GSM), impiegato in Europa e in gran parte del resto del mondo, è in grado di codificare il discorso alla velocità di 217 impulsi al secondo.

2. L'influenza dei campi di microonde dei cellulari sulle prestazioni cognitive umane

Dopo l'esposizione a campi telefonici GSM ed FM simulati o reali, si sono riscontrate delle alterazioni nelle performance cognitive umane. Simulando campi GSM ed FM, si è registrato un aumento del tempo di reazione nel prendere decisioni, maggiore nelle esposizioni a campi FM piuttosto che GSM (Prece et al., 1999). Utilizzando 6 test cognitivi impiegati in neuro-psicologia (digit-span e spatial-span forwards e backwards, sottrazione seriale e fluenza verbale), si è notato che la prestazione veniva agevolata dopo 30 minuti di esposizione ai 900 MHz di un campo GSM in ben 2 test relativi alla capacità di attenzione (digital span forwards e spatial span backwards) e alla velocità di elaborazione (sottrazione seriale) (Edelstyn e OlderShaw, 2002).

3) Sintomi soggettivi riportati dopo un uso prolungato del cellulare

Diversi sono i sintomi soggettivi riscontrati dopo un uso prolungato nel tempo del cellulare: vertigini, disagio, difficoltà di concentrazione e memoria, fatica, calore all'orecchio e dietro allo stesso, sensazione di bruciore al volto. Alcuni studi scandinavi hanno coinvolto 6379 utenti di telefoni GSM e 5613 di telefoni NMT (analogici) in Svezia e 2500 utenti di un gruppo e dell'altro in Norvegia (Sandstrom et al., 2001; Wilen et al., 2003). Questi studi tenevano conto dell'assorbimento di energia (SAR) nelle strutture cerebrali adiacenti all'orecchio e del tempo di utilizzo giornaliero dell'apparecchio, stimato in base al numero delle chiamate e alla loro durata. La conclusione raggiunta è che alcuni sintomi soggettivi come vertigini, disagio e calore dietro all'orecchio sono correlati ad elevati valori di assorbimento di energia (>0,5 W/Kg) e a lunghe e ripetute chiamate giornaliere.

4) Alterazioni nei tracciati dell'Elettroencefalogramma e del flusso sanguigno cerebrale durante e dopo l'esposizione al campo di un cellulare

Si è reso noto che i campi di cellulari GSM alterano i tracciati dell'EGG durante e dopo l'esposizione, apportando in concomitanza alterazioni del flusso sanguigno cerebrale. Durante il processo cognitivo per un compito legato ad una sequenza visiva di lettere, i 902 MHz dei campi digitali alteravano le reazioni di asincronia/sincronia nell'EGG relativamente alle bande a 6-8 e 8-10 Hz, solamente però quando esaminate come un'operazione di carica della memoria e tenendo conto del fatto che lo stimolo presentato fosse o meno un obiettivo. Dopo 30 minuti di esposizione unilaterale della testa, la tomografia ad emissione di positroni (PET) comportava un aumento relativo del flusso sanguigno cerebrale nella corteccia dorso-laterale frontale in corrispondenza della parte esposta. Questi campi GSM pulsati incrementavano inoltre l'intensità dell'EGG nel raggio delle onde alfa (8-13 Hz) prima dell'inizio dello stato di riposo e nel campo dell'allungamento di frequenza durante la Fase 2 del sonno. Ancora più importante è il fatto che l'esposizione a campi non modulati aventi la stessa densità media di energia rispetto a quelli GSM non comportava un aumento dell'intensità nei tracciati dell'EGG riferiti alla veglia e al sonno, supportando così l'idea che la modulazione per impulso sia necessaria ad indurre le variazioni di veglia e riposo nell'EGG (Adey, 1997; Huber et al., 2002).

5) Modificazione della permeabilità della barriera emato-encefalica a causa del cellulare e di altri campi di microonde

Dal punto di vista storico, le osservazioni iniziali sulla possibile distruzione della barriera emato-encefalica (BBB) da parte dei campi di microonde si basavano sull'uso di campi radar da 36 GHz a supposti livelli di incidenza atermica (3mw/cm²) (Oscar e Hawkins, 1977). Gli studi così condotti hanno evidenziato nei topi un aumento dell'assorbimento da parte del cervello, attraverso la barriera di sangue, di sostanze come il mannitolo e l'inulina ma non di dextrano. Questa osservazione iniziale è stata eclissata da successivi studi d'èquipe, ai quali ha preso parte lo stesso Oscar, che hanno portato alla conclusione che la permeabilità alla saccarina da parte della barriera emato-encefalica non cambia (Oscar et al., 1982; Gruenau et al., 1982). Lo studio iniziale nel quale si erano utilizzati il mannitolo e l'inulina all'epoca non venne ripetuto.

Ulteriori studi condotti a partire dal 1988 da Salford e colleghi hanno evidenziato una consistente fuoriuscita di albumina attraverso la barriera emato-encefalica nei topi precedentemente esposti a tutto corpo e per due, ore ai campi di GSM con un assorbimento medio di energia di 2mW/Kg, 20mW/Kg e 200mW/Kg (Salford et al., 2003). I livelli di campo risulterebbero significativi nel caso di esposizioni atermiche. Gli animali esposti sopravvivevano per 50 giorni circa. Gli anticorpi dell'albumina mostravano evidenti focolai intorno ai vasi sanguigni più sottili della materia bianca e grigia. Come evidenziato dal color viola del cresilo, i neuroni danneggiati si trovavano tra quelli sani nella corteccia cerebrale, nell'ippocampo e alla base dei gangli, con un'incidenza massima intorno al 2%, tuttavia in alcune aree ristrette arrivavano a dominare l'immagine. I risultati dei gruppi differivano in modo significativo, comprovando una dose-dipendenza (P inferiore a 0,002). Gli autori sono giunti alla conclusione che "il tempo trascorso tra l'ultima esposizione e il decesso è di fondamentale importanza per individuare i focolai di fuoriuscita poiché l'albumina travasata si diffonde rapidamente al di sotto di concentrazioni che si possono dimostrare in modo accurato dal punto di vista immunoistologico. Tuttavia, l'iniziale fuoriuscita può dare inizio ad una seconda apertura nella barrieraemato-encefalica, innescando così un circolo vizioso, è stata riscontrata infatti la fuoriuscita di albumina anche due settimane dopo l'esposizione… Noi e altri studiosi abbiamo dimostrato che se una molecola relativamente grande come l'albumina è in grado di attraversare la barriera emato-encefalica, molte altre molecole più piccole, incluse quelle tossiche, possono penetrare nel cervello a causa dell'esposizione a campi di radiofrequenza".

A livello cellulare, un modello come quello della barriera emato-encefalica può essere ottenuto in vitro utilizzando gli astrociti dei topi e le cellule endoteliali che rivestono i vasi sanguigni cerebrali dei suini (Schirmacher et al., 2000). L'esistenza di una barriera emato-encefalica formata da queste cellule endoteliali è stata confermata dalla presenza della proteina in grado di occludere la zona (segno degli stretti legami intercellulari), dai contatti tra queste cellule e dall'assenza di scissioni intercellulari. Le misurazioni sulla permeabilità con il saccarosio sono correlate alla "tenuta" fisiologica. L'esposizione di 4 giorni a campi di telefonia GSM a 1800 MHz determina un aumento significativo della permeabilità del saccarosio rispetto a soggetti non esposti.

6) Riferimenti bibliografici

[Ader, 1997] Adey WR 1997: I bio-effetti dei campi di comunicazione: i possibili meccanismi legati all'accumulo di sostanze. In Kuster N., Balzano Q., edizioni Lin; La sicurezza della comunicazione mobile, New York, Chapman e Hall, pp. 103-139.

[Edelsryn e Oldenshaw, 2002]: Gli effetti acuti sull'attenzione legati all'esposizione ad un campo elettromagnetico emesso dai cellulari. Neuroreport 13: 119-121

[Gruenau et al., 1982] Gruenau SP
[Huber et al., 2002] I Huber R., Troyer V, Borbely A. et al. (2002): I campi elettromagnetici, come quelli dei cellulari, alterano il flusso sanguigno in alcune zone del cervello e il sonno e la veglia nei tracciati dell'EGG. J Sleep Res 11: 280-295

[Krause et al., 2002] Krause CM, Sillanmaki L., Koivisto M. et al. (2002): Gli effetti dei campi elettromagnetici emessi dai cellulari sull'elettroencefalogramma durante un compito di memorizzazione visiva. Intermit Radial Biol 76: 1659-1667.

[Kuster et al., 1997] Kuster N., Balzano Q., Lin J, edizione 1997: La sicurezza della comunicazione mobile. New York, Chapman e Hall, pp. 279.

[Oscar e Hawkins, 1977] Oscar KJ, Hawkins TD (1997): L'alterazione dovuta alle microonde della barriera emato-encefalica nei topi. Brain Res 126: pp. 281-293.

[Oscar et al., 1982] Oscar KJ, Gruenau SP, Folker MT (1982): L'assenza degli effetti dei campi di microonde sulla permeabilità al saccarosio della barriera emato-encefalica nei topi. Exper Neural 75: 229-307

[Prece et al., 1999] Prece AW G, Davies-Smith A. et al. (1999): Gli effetti dei 915 MHz di un campo simulato per telefoni cellulari sulle funzioni cognitive dell'uomo. Internat J Rat Biot 75: 447-456.

[Salford et al., 2003] Salford L., Brun A., Eberhardt J. et al. (2003) I danni apportati alle cellule cerebrali dei mammiferi dopo l'esposizione alle microonde emesse dai telefoni cellulari GSM. Environmenthal Health Perspectives 2003

[Sandstrom et al., 2001] Sandstrom M., Wilen J., Oftedal G. et al. (2001): L'uso del cellulare e i sintomi soggettivi correlati. Occup Med (Lond) 51: 25-35.

[Schirmacher et al. 2000] Schirmacher A., Winters S, Fischer S. at al. (2000): I campi elettromagnetici (1,8 GHz) incrementano in vitro la permeabilità al saccarosio della barrieraemato-encefalica. Bioelectromagnetics 21: 338-345.

[Wilen et al. 2000] Wilen J, Sandstrom M., Hansonn Mild K (2003): Sintomi soggettivi tra gli utenti di telefoni cellulari: una conseguenza dell'assorbimento dei campi di radiofrequenza? Bioelectromagnetics 24: 152-159.

Vedi anche: Neuroscion.com

W. Ross Adey è Professore emerito di Fisiologia presso la Loma Linda University School of Medicine, Loma Linda California 92354 USA e-mail: Radcy43450@ aol.com.

Global Research:

Fonte: http://www.globalresearch.ca/
Link (Html)
09.05.2007

The EMR Network:

Fonte: http://www.emrnetwork.org/

Link (PDF): http://www.emrnetwork.org/research/adey_encneuro_mp.pdf
28.06.2004

Traduzione per www.comedonchisciotte.org a cura di ELISA MASIERO
Related Posts Plugin for WordPress, Blogger...