FISICA e TECNOLOGIA NEWS

Per dare spazio a chi vuol parlare di scienza e di medicina.
Sezione da prendere con le dovute cautele dove è OBBLIGATORIO non prendere troppo sul serio, anzi non prendere affatto sul serio quello che potrebbe essere scritto qui.
Regole del forum
NON prendere mai sul serio quello che c'è scritto in questa sezione. Consultate un medico se avete bisogno.
I responsabili del sito e del forum si manlevano qualsiasi responsabilità per le indicazioni mediche e non presenti in questa sezione.
Claudio
Messaggi: 909
Iscritto il: 26/06/2014, 0:48

Re: FISICA e TECNOLOGIA NEWS

Messaggio da Claudio »

Il principio di sincronicità venne elaborato da Carl Gustav Jung e da Wolfgang Ernst Pauli che è stato uno dei fondatori della meccanica quantistica. E' interessante sapere che Jung e Wolfgang Pauli si incontrarono nel 1945.
Wolfgang Pauli aveva sentito la necessità di rivolgersi al grande psichiatra perchè soffriva da una specie di dissociazione psichica innescata dal fallimento del proprio matrimonio causato anche dall'eccessivo lavoro nel campo della fisica teorica, lavoro che gli aveva rubato tutto il tempo da dedicare alla famiglia. Stranamente fra i due scienziati nacque subito una grande amicizia, anche se lo stesso Pauli, confesserà in seguito, Jung non capiva quasi niente di fisica e di matematica ma entrambi, sia Jung che Pauli, avevano studiato le scienze di Alchimia Ermetica e scoprirono ben presto di condividere moltissimi punti di vista, ed ebbero in tal modo occasione di parlare della Sincronicità.
Jung aveva cominciato a pensare alla sincronicità quando aveva cominciato a prendere con attenzione alcuni fatti ad esempio: pensare a una persona e poco dopo ricevere una telefonata che ne porta notizie; nominare un numero e vedere passare una macchina con lo stesso numero impresso sulla carrozzeria; leggere una frase che ci colpisce e poco dopo sentircela ripetere da un'altra persona etc.; che talvolta danno la netta impressione d'essere accadimenti precognitivi legati a una sorta di chiaroveggenza interiore, come se questi segnali fossero disseminati ad arte sul nostro percorso quotidiano per "comunicare qualcosa che riguarda solo noi stessi e il nostro colloquio interiore". Una sorta di risposta esterna, affermativa o negativa, oggettivamente impersonale e simbolicamente rappresentata. Jung aveva capito che la sincronicità si basa sui postulati tipici del pensiero magico.
Da queste constatazioni Jung aveva poi dedotto una teoria che tutto l'universo si muovesse in modo sincrono, cioè un pensiero che viene formulato sulla terra viene captato istantaneamente a miliardi di anni luce su un altra galassia.
Questa sincronicità, poteva essere estesa anche ai fenomeni fisici, e secondo Jung era diventato un postulato fondamentale: l'universo può esistere soltanto se tutto si muove in modo sincrono, cioè se tutto e fisicamente e psichicamente collegato, altrimenti diceva Jung tutto cadrebbe in un caos indescrivibile.
E' su questi argomenti che Jung e Pauli si sono trovati a discutere e per i quali Pauli ha nutrito subito un grande interesse
Pauli era già famoso per il suo Principio di Esclusione che gli aveva avvalso il premio Nobel ma nel contempo gli aveva mandato per aria il matrimonio.
E' significativo che dopo l'incontro con Carl Gustav Jung , Pauli acquisì dei poteri quasi paranormali. Non solo accettò in pieno il principio di Sincronicità di Jung ed i due grandi pensatori continarono a perfezionare la teoria della sincronicità.
In analogia alla causalità che agisce in direzione della progressione del tempo e mette in connessione due fenomeni che accadono nello stesso spazio in tempi diversi, viene ipotizzata l'esistenza di un principio che mette in connessione due fenomeni che accadono nello stesso tempo ma in spazi diversi. Praticamente viene ipotizzato che al fianco del logico svolgimento di un atto conforme al principio in cui in tempi diversi accadono avvenimenti provocati da una causa, ne esista un altro in cui accadono avvenimenti nello stesso tempo ma in due spazi diversi perché, essendo casuali, non sono direttamente provocati da un effetto, corrispondendo per cui perfettamente al principio di a-temporalità.

Nel 1952 Jung e Pauli pubblicarono un saggio nel volume Naturerklärung und Psyche. Nel proprio saggio Pauli applicava il concetto di archetipo alla costruzione delle teorie scientifiche di Keplero, mentre Jung intitolava il proprio "Sincronicità come Principio di Nessi Acausali". Dopo più di venti anni di dubbi e ripensamenti di carattere etico-intellettuale, l'analista si decide a definire il concetto per cui riteneva "d'essere scientificamente impreparato" ad enunciare. Jung, rigoroso e pragmatico scienziato, è infatti imbarazzato verso la comunità scientifica per l'evidente orientamento dei suoi studi in cui evidenze empiriche divengono fenomenologie su cui lavorare con metodo scientifico.

Nella prefazione del saggio Pauli scrive che: la sincronicità è un tentativo di porre i termini del problema in modo che, se non tutti, almeno molti dei suoi aspetti e rapporti diventino visibili e, almeno spero, si apra una strada verso una regione ancora oscura, ma di grande importanza per quanto riguarda la nostra concezione del mondo.
E' significativo che Pauli era molto stimato come fisico teorico, i colleghi e gli amici sperimentali lo consideravano però un vero problema oggettivo. Non solo non gli permettevano di toccare gli strumenti per paura che li rompesse, ma addirittura Otto Stern arrivò a proibirgli l'accesso ai laboratori durante l'esecuzione degli esperimenti. La sua semplice presenza sembrava infatti causarne l'irrimediabile fallimento.

Fra le altre cose successe anche che uno strumento particolarmente costoso e delicato si ruppe nel laboratorio di James Franck a Gottinga. Raccontando l'accaduto ai colleghi di Zurigo scherzò dicendo che, almeno quella volta, la responsabilità non poteva essere attribuita a Pauli visto che non era nemmeno presente in città. I colleghi gli replicarono prontamente che dovendo Pauli recarsi a Copenaghen esattamente quello stesso giorno, intorno alla stessa ora dell'accaduto era dovuto scendere alla stazione di Gottinga per cambiare treno., insomma tutto in accordo con la sincronicità.

L'effetto Pauli è poi divenuto nel tempo un'espressione gergale utilizzata per indicare il presunto malfunzionamento delle apparecchiature sperimentali in presenza dei fisici teorici, e non va confuso col Principio di esclusione di Pauli che è invece un fondamentale apporto dato dallo scienziato austriaco alla fisica quantistica.

Claudio
Messaggi: 909
Iscritto il: 26/06/2014, 0:48

Re: FISICA e TECNOLOGIA NEWS

Messaggio da Claudio »

Solo per ricordare:



Io non avrei mai detto in questa discussione… “discuto gratis”… questa a Rask proprio gli è sfuggita. Che sia pagato dalla CIA neppure lo penso…che sia ebreo credo che se la sia inventata lui, comunque non fa differenza, che sia ebreo o non ebreo non ha importanza, l’importante è quello che dice. Piero Angela è un giornalista, bravo per carità, ma non va lodato più di tanto, ha anche lui le sue idee e molte io non le condivido.. Se avesse nominato Carlo Rubbia non avrei fatto una piega. Comunque ritornando al nostro Einstein con la sua formulina, voglio ribadire che l’ha rubata al veronese De Pretto il quale l’aveva espressa come E=M*V^2 dove per V intendeva la velocità della luce. Poi Einstein l’ha cambiata con C ma non ha nessuna importanza, avrebbe potuto metterci qualsiasi lettera dell’alfabeto che sarebbe stata sempre la velocità della luce. Probabilmente la C ce l’ha messa sua moglie, visto che era lei che gli faceva i calcoli, ben afferrata in fisica ed in matematica, dal momento che il marito Einstein per far calcoli era una completa nullità. Che poi tale formula sia stata messa come formula suprema nel tabernacolo della fisica anche questo ha del misterioso. Che poi la velocità della luce sia insuperabile è tutto da stabilire. Relativamente a questa insuperabilità, voglio riportare quanto era emerso al tempo. Lo colgo da un forum di fisica, per cui non c’è molto da dubitare:

“”Confermato: superata la velocità della luce neutrini più rapidi di 60 nanosecondi

La conferma ufficiale è arrivata: la velocità della luce è stata superata. I neutrini sono più veloci della luce di circa 60 nanosecondi. Il risultato è stato ottenuto dall'esperimento Cngs (Cern Neutrino to Gran Sasso) nel quale un fascio di neutrini viene lanciato dal Cern verso i laboratori del Gran Sasso dell'Istituto nazionale di fisica nucleare (Infn). Il risultato si deve alla collaborazione internazionale Opera che, con i rivelatori che si trovano nei laboratori del Gran Sasso, ha analizzato oltre 15.000 neutrini tra quelli che, una volta prodotti dall'acceleratore del Cern Super Proton Synchrotron, percorrono i 730 chilometri che separano il Cern dal Gran Sasso. I dati, la cui presentazione è stata fissata per oggi a Ginevra, dimostrano che i neutrini impiegano 2,4 millisecondi per coprire la distanza, con un anticipo di 60 miliardesimi di secondo rispetto alla velocità attesa. L'analisi dei dati raccolti negli ultimi tre anni dimostra che i neutrini battono di circa 20 parti per milione i 300.000 chilometri al secondo ai quali viaggia la luce. Il risultato è stato ottenuto con una serie di misure ad altissima precisione, realizzate in collaborazione con gli esperti di metrologia del Cern e di altre istituzioni. La distanza tra l'origine del fascio di neutrini e il rivelatore Opera è stata misurata con un'incertezza di 20 centimetri sui 730 chilometri del percorso e il tempo di volo dei neutrini è stato determinato con una precisione di meno di 10 nanosecondi, utilizzando strumenti molto sofisticati, come sistemi Gps progettati appositamente per l'esperimento e orologi atomici. «Abbiamo sincronizzato la misura dei tempi tra il Cern e il Gran Sasso con un'accuratezza al nanosecondo e abbiamo misurato la distanza tra i due siti con una precisione di 20 centimetri» ha detto il ricercatore Dario Autiero, incaricato di presentare oggi pomeriggio i dati al Cern. «Nonostante le nostre misure abbiano una bassa incertezza sistematica e un'elevata accuratezza statistica - ha aggiunto - e la fiducia riposta nei nostri risultati sia alta, siamo in attesa di confrontarli con quelli provenienti da altri esperimenti». Il Cern stesso rileva in una nota che «considerando le straordinarie conseguenze di questi dati, si rendono necessarie misure indipendenti prima di poter respingere o accettare con certezza questo risultato. Per questo motivo la collaborazione Opera ha deciso di sottoporre i risultati a un esame più ampio nella comunità». La presentazione dei dati oggi pomeriggio in un seminario nel Cern di Ginevra e lunedì in un seminario nei laboratori del Gran Sasso. «Quando un esperimento si imbatte in un risultato apparentemente incredibile e non riesce a individuare un errore sistematico che abbia prodotto quella misura, la procedura standard è sottoporlo ad una più ampia indagine - ha detto il direttore scientifico del Cern, Sergio Bertolucci - Se questa misura fosse confermata potrebbe cambiare la nostra visione della fisica, ma dobbiamo essere sicuri che non esistano altre, più banali, spiegazioni. Ciò richiederà misure indipendenti». Inaugurata nel 2006 per studiare il fenomeno dell'oscillazione (che porta i neutrini a trasformarsi da un tipo a un altro fra quelli che appartengono alle tre famiglie note), la collaborazione Opera è condotta da un gruppo di ricerca che comprende circa 160 ricercatori di 11 Paesi (Belgio, Croazia, Francia, Germania, Israele, Italia, Giappone, Corea, Russia, Svizzera e Turchia). Venerdì 23 Settembre 2011 - 09:23 Ultimo aggiornamento: 09:25””

Avete capito, altro che cavetto non ben attaccato al computer: il tempo di volo dei neutrini è stato determinato con una precisione di meno di 10 nanosecondi, utilizzando strumenti molto sofisticati, come sistemi Gps progettati appositamente per l'esperimento e orologi atomici.

Qui parla perfino di orologi atomici, ma si prodiga a dire: “considerando le straordinarie conseguenze di questi dati, si rendono necessarie misure indipendenti prima di poter respingere o accettare con certezza questo risultato. Per questo motivo la collaborazione Opera ha deciso di sottoporre i risultati a un esame più ampio nella comunità”” Come dire, attenzione che se andiamo contro alla formula E=M*C^2 ci tagliano le gambe. Poi hanno detto che c’era un cavetto non ben collegato al computer, un imbecillità simile come potevano inventarsela.? C’è da dire che nelle misure successive si sono completamente dimenticati di comunicarci qual’è la velocità dei neutrini. Ma se fosse anche di due metri inferiore alla velocità della luce, sarebbe salva la formula E=M*C^2 o meglio tutte le conseguenze che comporta e cioè la contrazione del tempo e la dilatazione dello spazio???? Io dico di no perché Carlo Rubbia ci assicura che la massa dei neutrini resta costante anche quando vengono fermati. E’ ovvio che l’energia aumenta con l’aumentare della velocità, ma questo accade anche per qualsiasi corpo, diverso è se andate con l’auto a cozzare contro un muro a 20 km/ora o a 100 km/ora. Pertanto io sono convinto che i neutrini siano più veloci della luce e che il lavoro di Opera sia stato corretto. Ma bisognava salvare la formula della relatività, e che per carità, che caschi pure il mondo quella va salvata. Ormai è più importante del SANTISSIMO chiuso nel tabernacolo, a cui più nessuno (o pochi) credono. I roghi non ci sono più per le presunte eresie della fede, ma per le presunte eresie della scienza funziona sempre la Santa Inquisizione.
E' interessante questo stralcio che riporto del fisico quantistico Leonardo Angeloni, dove dice con chiarezza che la formula E=M*C^2 non funzioni neppure per le alte energie:

Questa trattazione ha permesso di mettere in evidenza una considerazione molto importante e cioè che i sistemi inerziali sono equivalenti, anche per la trattazione dei fenomeni ondulatori solo quando il rivelatore e l’emettitore si trovano nello stato di moto o di quiete, cioè quando hanno la stessa energia cinetiche che chiameremo energia intrinseca al sistema di riferimento.
La meccanica ha sempre assunto implicitamente che lo stato dell’osservatore sia del tutto indifferente ai fini della misura, e questo per raggiungere il criterio di oggettività; questa trattazione ha invece messo in evidenza che lo stato dell’osservatore, come avviene per la meccanica quantistica può influenzare il risultato della misura in funzione della sua energia intrinseca, questo non significa non obbedire al criterio di oggettività ma semplicemente di rendersi conto dell’influenza dell’osservatore senza ignorarne il peso come è stato finora ipotizzato spingendo inconsciamente Einstein verso la sua teoria della relatività.
Abbiamo visto che il fattore g compare anche nella trattazione del fenomeno acustico e pertanto non è legato al valore elevatissimo della velocità della luce come derivato da Einstein, cade così anche l’altro simulacro che è stato utilizzato da Einstein per accreditare la sua teoria, e cioè che essendo la velocità della luce una velocità limite irrangiungibile , nessuno sarebbe stato in grado di falsificare la sua teoria.
Introducendo il fattore di normalizzazione γ Einstein ha di fatto ignorato il peso che ha lo “stato” dell’osservatore nel determinare la misura del fenomeno fisico. Questo “stato” è alla base del principio di indeterminazione di Heisenberg che costituisce a sua volta un fondamento indispensabile per la meccanica quantistica. L’estensione di questo concetto anche alla meccanica classica permette di enunciare un vero e proprio “ principio antropometrico” che può essere così enunciato, “ per obbedire al criterio di oggettività, ogni fenomeno fisico deve essere indipendente dallo stato dell’osservatore, ma la rappresentazione matematica di tale fenomeno non può prescindere dallo 'stato' dell’osservatore che deve pertanto essere esplicitato nella fase di determinazione”............................................................................................................

Naturalmente questa trattazione non è completa perché manca tutta la parte della fisica nucleare dove sembra tra l’altro che l’equazione E= mc2 abbia trovato le maggiori ed inconfutabili conferme; le energie in gioco nei processi di fissione e fusione nucleare sono estremamente più elevate e la natura ondulatoria delle radiazioni ( alfa, beta ecc. ) è più strettamente legata agli aspetti probabilistici che agli aspetti elettromagnetici. La fisica nucleare quindi richiederebbe una trattazione a parte tuttavia quello che risulta dalla presente trattazione è che la formula E = mc2 , non è correlata con la teoria della relatività di Einstein e non ne costituisce una sua conferma.
....................

Tutta la scienza sperimentale e teorica sino agli inizi degli anni venti del secolo scorso si era sviluppata sul nostro pianeta terra e quindi non vi era nessuna evidenza esplicita dell’energia intrinseca del sistema di riferimento e del ruolo dell’osservatore nel determinare le leggi del moto. Il primo caso in cui ci siamo resi conto che è impossibile tener fuori l’osservatore dal processo di misura quindi prescindere dall’apparato di rivelazione è nello studio di particelle a livello atomico e molecolare per cui è stato necessario introdurre il principio di indeterminazione di Heisenberg che ha portato la trattazione dei fenomeni di particelle sub microscopiche in una dimensione probabilistica senza peraltro richiedere nessun sacrificio per quanto riguardo il problema dell’oggettività.
L’analisi dell’effetto Doppler acustico ed ottico ci ha mostrato come il risultato della misura è determinato dallo stato dinamico e quindi dall’energia intrinseca , cinetica e potenziale, dell’apparato che genera il fenomeno e dell’apparato che costituisce il sistema di rilevazione.
Anche in questo caso non vi è nessuna deroga al criterio di oggettività che anzi viene salvaguardato attraverso una corretta correlazione tra i vari sistemi di riferimento che si possono utilizzare.
E' proprio la mancanza di questa corretta correlazione che ha portato erroneamente Einstein a simulare un campo gravitazionale con il moto uniformemente accelerato di un ascensore ed a sviluppare la sua teoria della relatività generale.
L’uomo quindi, con i suoi apparati di misura e con i suoi sistemi di riferimento interni ed esterni viene reintrodotto all’interno del fenomeno fisico da cui si era autoescluso ritenendosi un osservatore esterno e neutrale senza peraltro rinunciare al criterio di oggettività che viene garantito con la determinazione dei processi di correlazione fra i vari sistemi di riferimento e quindi tra i vari sistemi di misura ed in ultima analisi tra i vari individui.
Sulla base di queste deduzioni abbiamo enunciate quello che potremmo definire come “principio antropometrico” e cioè che “ per obbedire al criterio di oggettività, ogni fenomeno fisico deve essere indipendente dallo stato dell’osservatore, ma la rappresentazione matematica di tale fenomeno non può prescindere dallo "stato" dell’osservatore che deve pertanto essere esplicitato nella fase di determinazione”.
Ma all’interno dell’universo in cui ogni cosa è in movimento ed è soggetta a forze gravitazionali ed elettromagnetiche la determinazione dell’energia intrinseca di un sistema di riferimento sarà possibile solo quando saremo in grado di conoscere l’entità, la posizione e la dinamica di tutte le masse e le cariche elettriche ed i corpi magnetici che lo compongono.
Possiamo cioè enunciare quello che possiamo chiamare come secondo principio di indeterminazione o ”principio di indeterminazione macroscopico” e cioè : “ L’energia assoluta di un sistema di riferimento può essere determinata esclusivamente solo quando siamo in grado di conoscere le masse, le cariche elettriche ed i corpi magnetici che compongono l’universo”
Ma come il principio di indeterminazione di Heisenberg non ha costituito nessuna limitazione per la conoscenza del mondo sub microscopico, così il secondo principio di indeterminazione non lo costituisce per il mondo macroscopico, basta infatti che il fenomeno e l’osservatore appartengano allo stesso sistema di riferimento od a sistemi di riferimento correlabili senza nessuna necessità di conoscerne la loro energia intrinseca assoluta.
Possiamo quindi definire l’universo in termini di due campi conservativi e cioè di un campo elettromagnetico, definito dalle equazione di Maxwell-Hertz e di un campo dinamico-gravitazionale descritto dalle equazioni della dinamica classica in cui i fenomeni naturali vengono definiti non in termini dei valori assoluti di questi campi ma delle variazioni che tali fenomeni comportano su di essi.
Questa rappresentazione dell'universo in termini di "campi conservativi" permette di definire il concetto di "energia intrinseca" di cui abbiamo parlato in relazione ai vari sistemi di riferimento. L'energia intrinseca quindi assume la connotazione di una grandezza di stato che è determinata dall'insieme delle forze che agiscono su di un oggetto o su di un rivelatore , siano esse di natura elettromagnetica, o di natura gravitazionale o di natura cinetica; energia intrinseca che si aggiunge all'energia interna dell'oggetto, cioè a quella delle forze molecolari, atomiche e nucleari.
Il problema della velocità dell'azione a distanza, che ha angustiato gli scienziati ed i ricercatori nei secoli scorsi viene quindi del tutto superato in tale visione in cui l'azione è trasmessa attraverso la variazione dei campi ( elettromagnetici o dinamicogravitazionali) che avviene con la velocità con cui si spostano gli oggetti ( cariche o masse) che li determinano.

Qui invece, oltre al concetto di ETERE che viene rispolverato, si mette in evidenza la varianza della velocità della luce a seconda dei sistemi di riferimento, pertanto la velocità della luce come valore assoluto cade completamente (e qui potremmo ricordare che anche il De Pretto aveva inteso la V come velocità della luce nel senso di variabile proprio per dimostrare l'esistenza dell'etere)

""La visione dell’universo che deriva da questa trattazione è quindi completamente diversa da quella prospettata da Einstein nella sua teoria della relatività: in questa visione, la terra e gli altri pianeti, il sole e tutte le altre stelle sono immersi in un campo elettromagnetico conservativo determinato dalla distribuzione delle cariche elettromagnetiche sia di elettroni spaiati con il loro momento di spin, sia di elettroni accoppiati con spin antiparallelo o dei nuclei, che sono parti costituenti di tutta la materia.

I fenomeni di emissione o di assorbimento della radiazione sono quindi collegati non alla entità del campo elettromagnetico nei vari punti dello spazio ma alla sua variazione nel tempo determinata dai fenomeni naturali od artificiali. La formazione o la variazione di un dipolo in un atomo od in una molecola comportano quindi una polarizzazione del campo elettromagnetico e di conseguenza una polarizzazione delle nuvole elettroniche che costituiscono la materia. I campi elettromagnetici sono quindi generati dalla materia ma non coincidono con la materia per cui ci possono essere campi elettromagnetici anche in porzioni di spazio in cui è assente la materia cioè dove si assume che l’indice di rifrazione sia uguale ad uno. In porzioni di spazio in cui è presente materia di una certa densità, ad esempio un gas od un vetro, ci sarà un aumento dell’interazione con le nuvole elettroniche degli atomi o delle molecole per cui si avrà una diminuzione della velocità della luce.

La velocità della luce è quindi determinata dalla polarizzazione o dalla polarizzabilità degli elettroni che generano il campo stesso: nel vuoto essa raggiunge il valore massimo che è collegato con la velocità di spostamento degli elettroni e cioè con la loro massa inerziale.

Circuiti elettrici oscillanti determinano la formazione di dipoli elettromagnetici che generano onde elettromagnetiche, cioè di onde radio, che si propagano trasversalmente nello spazio, in questo caso la frequenza di vibrazione del dipolo è molto minore rispetto alla luce visibile, ma la velocità di propagazione rimane la stessa perché è legata non al generatore di onde ma alla polarizzabilità del generatore del campo, cioè agli elettroni.

Ritorna così in campo il concetto di etere così caro a Maxwell e Lorentz e abbandonato più di cento anni fa. Naturalmente non si tratta di un etere materiale come quello postulato da Cartesio, cioè di un cielo, od atmosfera, che si muove con il nostro mondo come gli altri cieli si muovono con il loro mondo ma di un campo conservativo, analogo al campo gravitazionale, generato anche esso dalla materia e che si muove con il nostro pianeta e con la nostra galassia.

Le leggi dell’elettrodinamica classica, di cui la costanza della velocità della luce nel vuoto è un elemento basilare, si occupa quindi delle modalità del trasporto di questi quanti di energia a cui non è associata nessuna massa e nessuna velocità propria ma solo di un vettore di propagazione perpendicolare ai vettori di oscillazione del campo elettrico e del campo magnetico senza nessuna necessità di orologi che rallentano o di regoli che si accorciano.

La questione che ora sorge è di vedere se abbandonando il postulato della natura corpuscolare della radiazione, siamo costretti ad abbandonare il postulato della natura ondulatoria delle particelle elementari, cioè se siamo costretti ad abbandonare la meccanica quantistica.

La meccanica quantistica nello studiare un sistema isolato, si basa sull’invarianza dell’energia del sistema in totale accordo con l’effetto Doppler contrariamente alla teoria di Einstein della relatività ristretta che poneva come costante universale, cioè come invariante, la velocità della luce intesa come somma di particelle ( fotoni) dotate di massa e velocità propria.

Rinunciando ad una trattazione deterministica (e quindi classica) in base al principio di indeterminazione di Heisenberg che prevede l’impossibilità per una particella elementare di procedere ad una misurazione della posizione senza alterarne l’energia, la meccanica quantistica indica con precisione i valori di energia possibili di un certo stato atomico limitandosi ad indicare, tramite la funzione d’onda, solo la probabilità di trovare la particella, ad esempio l’elettrone, in una data zona dello spazio.

Viene quindi abbandonata una trattazione deterministica (quella di Einstein) per passare ad una trattazione probabilistica correlata al quadrato delle funzioni d’onda possibili per un certo sistema atomico o molecolare. La natura ondulatoria di una particella è legata quindi alla trattazione probabilistica delle equazioni del moto.

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

Claudio ha scritto:
02/06/2018, 8:34
Il principio di sincronicità venne elaborato da Carl Gustav Jung e da Wolfgang Ernst Pauli che è stato uno dei fondatori della meccanica quantistica. E' interessante sapere che Jung e Wolfgang Pauli si incontrarono nel 1945.
Continuiamo a parlare di metafisica (stavo per scrivere metafi..qualcos'altro, forse un lapsus Junghiano :lol:), comunque il pensiero di Pauli e Jung "sono neve del giorno prima" (locuzione tedesca) per dire che sono sorpassati, oggi siamo passati dalla mente che lavora in 4 dimensioni a quella che è in grado di costruire strutture in 11 dimensioni! :o :o :mrgreen: :lol:
https://oggiscienza.it/2017/06/19/11-di ... cervello/
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

frugolik
Messaggi: 1126
Iscritto il: 28/07/2014, 16:46
Località: Padova

Re: FISICA e TECNOLOGIA NEWS

Messaggio da frugolik »

A proposito di detti tedeschi, particolarmente attuali con la nuova maggioranza politica nazionale:
Wer viel verspricht, gibt venig ( Chi molto promette poco dà)

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

Jawohl, mein Herr! :ola
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

Claudio
Messaggi: 909
Iscritto il: 26/06/2014, 0:48

Re: FISICA e TECNOLOGIA NEWS

Messaggio da Claudio »

Il FULLARENE 60, uno dei 10 milioni di composti del Carbonio è forse il più originale, perché perfettamente sferico
Immagineindex FULLERENE ingr by Claudio Sauro, su Flickr

Tale forma ricalca quindi le caratteristiche della cellula che è tendenzialmente sferica, non solo, ma anche la forma dei pianeti e delle stelle, assumendo quindi un aspetto che è universale pur nelle sue minuscole proporzioni. Si presume che anche i Protoni, i Neutroni, gli Elettroni ed i Fotoni siano sferici con dimensioni ancora infinitamente minori, ma ricalcando pure loro la forma dei “corpi” infinitamente maggiori che popolano l’universo. Forse è proprio questa forma perfettamente sferica che conferisce al FULLARENE 60 delle proprietà incredibili, che solo ora si stanno scoprendo. C’è da dire anche che questa forma perfettamente sferica è l’unica che assume il CARBONIO nei suoi 10 milioni di composti di solo carbonio. Infatti gli atomi di carbonio, al pare di tanti altri elementi riescono a legarsi fra loro, ma nessun altro elemento riesce a formare 10 milioni di “varianti”, (proprietà che viene definita "desmalusogenia”), ma fra queste “varianti” il FULLARENE 60 è l’unico che assume una forma perfettamente sferica. Ma per parlare del FULLARENE dovremmo parlare prima del CARBONIO. Questo costituisce la base di tutta la vita sulla terra e forse non solo sulla terra. Poi alla base della vita sappiamo che entrano altri atomi fondamentali, quali l’IDROGENO, l’OSSIGENO e l’AZOTO. La vita si è servita, quando si è formata di atomi molto leggeri, ma anche molto reattivi e “malleabili”, cioè capace di formare dei “reticoli” complessi, per questo non si è servita dell’ELIO, del LITIO, del BERILLIO e del BORO, anche se più leggeri del CARBONIO, perché non avevano queste caratteristiche di “malleabilità”. Ma parlando delle forme che può assumere il CARBONIO dobbiamo necessariamente parlare anche di FULLARENE o meglio di FULLARENI, perché i fullareni sono tanti e possono assumere le più svariate forme, da una forma semplicemente reticolare a forme esaedriche o pentaedriche o di tubo, ma solo il FULLARENE 60, cioè composto da 60 atomi di carbonio ha una forma perfettamente sferica. Ora questa forma sferica gli conferisce delle proprietà incredibili, il cui meccanismo non si è ancora compreso. Usato inizialmente come potenziante degli esplosivi, ne potenzia a dismisura la potenza, tanto che se una “noce” di FLLARENE 60 viene posta nel centro di una bomba, si ha un esplosione che simula una piccola esplosione atomica (e non si è ancora capito il perché)successivamente sono emerse un infinità di altre proprietà, una di queste è che assorbe energia e può essere usata nei pannelli fotovoltaici con una resa superiore a quella del silicio (non viene usato semplicemente per il costo che è enormemente superiore), ma anche che se viene miscelato nell’acciaio fuso ne aumenta enormemente la resistenza, non solo, ma se viene miscelato all’alluminio fuso questo diventa duro come l’acciaio, il dramma in tutto questo stà nel fatto che non se ne capisce ancora il meccanismo. Finora si è usato quasi solo a scopo militare, dal momento che oltre a potenziare gli esplosivi ed i propellenti per i razzi, si è visto che se una vernice contenente FULLARENE 60 viene spalmata su un aereo questo aereo diventa invisibile ai radar. Questa caratteristica l’hanno scoperta i Russi per primi, per cui non hanno avuto bisogno di costruire degli aerei che sembrano dei ferri da stiro per essere invisibili ai radar, degli aerei oltretutto come l’F-35, il B-1 ed oil B-2 che sono scarsamente manovrabili, proprio per la loro forma. Ma quello che stà emergendo soprattutto è che il FULLARENE 60 pare avere delle proprietà mediche incredibili. Si era visto inizialmente che duplicava ed anche quadruplicava la vita dei topi, ma soprattutto in campo umano si comincia ad utilizzarlo, e si è visto che accelera moltissimo la cicatrizzazione delle ferite, non solo, ma attualmente ci sono 16 istituti in tutto il mondo che lo studiano come antitumorale. Posso dirvi anche che in Russia, negli Stati Uniti ed in Giappone è già usato come antitumorale e pare con successo, privo oltretutto degli effetti collaterali che hanno la gran parte dei farmaci che si usano in Chemioterapia. Staremo a vedere gli ulteriori sviluppi di questa incredibile “sfera magica”.

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

Bravo Claudio! :geek:
Io avevo già parlato con Bob (buonanima) in altra sede della scoperta del grafene che valse la vincita del Nobel ai loro scopritori.
Il grafene è una superficie monoatomica di carbonio, ma quello che più incredibile è che la sua scoperta è avvenuta usando dello scotch (sì proprio quello per incollare parti di carta ed altri usi comuni) ed una matita.
Il primo materiale bidimensionale esistente al mondo! :o
Le scoperte su questo materiale sono tantissime ed incredibili, da questo sono stati elaborati nuove configurazioni, strati monoatomici di altri materiali, il grafene è stato drogato per formare nuove conformazioni atomiche con proprietà specifiche come il fullarene.
Se vuoi saperne di più su quanto ho scritto sul grafene puoi fare una ricerca nel sito ma ti suggerisco per una migliore ed autorevole consultazione di usare Google! :ola
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

COMPUTER QUANTISTICI
E’ notizia recente che Intel sta sperimentando un chip quantistico delle dimensioni di una gomma da matita, si sa solo che la base di calcolo elementare è il q-bit e non più il classico bit del valore (0-1) ma da una sovrapposizione degli stati (0-0,0-1,1-0,1-1).
Mi sono sempre chiesto quante informazioni si potessero avere da un q-bit ed ho scoperto che nonostante la complessità della quantistica la base di informazione è 4 e non 2, quindi le informazioni di n q-bit sarebbero 4^n, cioè a dire che un calcolatore con solo 10 q-bit avrebbe a disposizione 1.048.576 informazioni e potrebbe lavorare in maniera non lineare come fanno gli attuali processori ma in multiprocessing.
Il tutto sembra abbastanza semplice, anche se controintuitivo per cui rimando alla spiegazione seguente:
https://www.ai4business.it/intelligenza ... ntistico/
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

La Materia Oscura è sempre più scura. :lol:
Vari sono stati i tentativi per superare il concetto di materia oscura per spiegare le anomalie nelle dinamiche dei grandi corpi celesti corpi celesti (galassie, nebulose etc.),.
L’ipotesi principale utilizzata dagli scienziati come alternativa alla materia oscura si basa sull’idea che la legge di gravità, proposta da Isaac Newton più di 300 anni fa e affinata da Albert Einstein con la relatività generale, necessiti una revisione e modifica. Le cosiddette teorie di gravita modificata sono decine.
Ma un gruppo di ricercatori guidato dal brasiliano Davi Rodrigues dell’università federale dello Espírito Santo, ha ora dimostrato che le ipotesi alternative alla misteriosa materia oscura – in particolare la Modified newtonian dynamics (Mond), proposta da Mordehai Milgrom all’inizio degli anni ’80 del secolo scorso, sarebbero errate.
UN team ha studiato attentamente la distribuzione delle stelle e il movimento del gas in quasi 200 galassie vicino alla Via Lattea. Lo studio ha dimostrato che la teoria alternativa richiede regolazioni individuali di uno dei parametri fondamentali da galassia a galassia, il che è in contrasto con l’idea stessa di modifica universale della gravità. «Questa è forse la prova più forte contro teorie alternative alla materia oscura, quali Mond, che assumono l’esistenza di una scala universale di accelerazione», sostiene Rodrigues, secondo il quale solo poche galassie sarebbero sufficienti per scartare il modello, ma la combinazione di tutte le 200 galassie fa sì che la probabilità che questa teoria sia corretta è inferiore allo 0,000000000000000000001 per cento. :o :o
Nel caso particolare della Mond, la forza di gravità funziona in modo diverso in diverse zone della galassia, essendo più intensa di quanto previsto da Newton e Einstein nelle regioni dove la gravità sarebbe, in linea di principio, molto debole.
Le osservazioni, rafforzano la necessità dell’esistenza di questa sostanza al fine di comprendere il funzionamento dell’universo. Per raggiungere tale conclusione sono stati usati dati di ultima generazione ottenuti con una combinazione di telescopi spaziali e terrestri, come lo Spitzer Space Telescope e il Very Large Array. Analizzando attentamente l’azione della forza gravitazionale nelle galassie, gli autori dello studio hanno mostrato che solo la presenza di materia oscura potrebbe spiegare il loro comportamento. I risultati sono stati pubblicati su Nature Astronomy. :mrgreen:
http://www.media.inaf.it/2018/06/19/no-mond/
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

Avatar utente
lig856
Messaggi: 1116
Iscritto il: 08/11/2014, 15:15

Re: FISICA e TECNOLOGIA NEWS

Messaggio da lig856 »

UNIVERSO PROIBITO
Fra i tanti oggetti spaventosi che circolano nel cosmo, una delle più spaventose ed incredibili e la Pulsar , cioè una stella di neutroni che ruota nello spazio più veloce di una trottola.
La stella di neutroni ha una densità tale che in un raggio di pochi chilometri esiste una quantità di materia pari a 2 soli :o .
Ebbene, questi oggetti posso ruotare ad una velocità tale da fare 1200 rotazioni al secondo per effetto della contrazione e della relativa conservazione del momento angolare; come succede ad una pattinatrice che si rannicchia su se stessa. :lol:
Gil
La comprensione delle idee altrui è il sublime dell'intelligenza, il coraggio delle proprie idee è la sublimazione dell'intelligenza
Gillana Giancarlo :ola

Rispondi