Domanda:
Cos'è un tensore?
0x90
2012-07-14 12:34:00 UTC
view on stackexchange narkive permalink

Conosco abbastanza bene la fisica, ma non riesco a capire a fondo cosa sia un tensore e perché sia ​​così fondamentale.

Post relativo a Math.SE: http://math.stackexchange.com/q/10282/11127 e link al suo interno.
Dieci risposte:
Ron Maimon
2012-07-14 13:50:41 UTC
view on stackexchange narkive permalink

Un tensore (controvariante di rango 2) è un vettore di vettori. Se hai un vettore, sono 3 numeri che puntano in una certa direzione. Ciò significa che ruotano l'uno nell'altro quando si esegue una rotazione delle coordinate. In modo che le 3 componenti vettoriali $ V ^ i $ si trasformino in

$$ V '^ i = A ^ i_j V ^ j $$

sotto una trasformazione lineare di coordinate.

Un tensore è un vettore di 3 vettori che ruotano l'uno nell'altro sotto rotazione (e inoltre ruotano come vettori --- l'ordine delle due operazioni di rotazione è irrilevante). Se un vettore è $ V ^ i $ dove i va da 1-3 (o 1-4, o da qualunque cosa a qualunque cosa), il tensore è $ T ^ {ij} $, dove il primo indice etichetta il vettore e il il secondo indice etichetta la componente vettoriale (o viceversa). Quando ruoti le coordinate T si trasforma come

$$ T '^ {ij} = A ^ i_k A ^ j_l T ^ {kl} = \ sum_ {kl} A ^ i_k A ^ j_l T ^ {kl } $$

Dove utilizzo la convenzione di sommatoria di Einstein secondo cui un indice ripetuto viene sommato, in modo che l'espressione centrale significhi davvero la somma all'estrema destra.

Un tensore di rango 3 è un vettore di tensori di rango 2, un tensore di rango quattro è un vettore di tensori di rango 3, così via al rango arbitrario. La notazione è $ T ^ {ijkl} $ e così via con tanti indici superiori quanti sono i rango. La legge di trasformazione è una A per ogni indice, il che significa che ogni indice si trasforma separatamente come un vettore.

Un vettore covariante, o covettore, è una funzione lineare da vettori a numeri. Questo è descritto completamente dai coefficienti, $ U_i $, e la funzione lineare è

$$ U_i V ^ i = \ sum_i U_i V ^ i = U_1 V ^ 1 + U_2 V ^ 2 + U_3 V ^ 3 $$

dove la convenzione di Einstein è impiegata nella prima espressione, il che significa semplicemente che se lo stesso nome di indice ricorre due volte, una volta in basso e una volta in alto, capisci che dovresti sommare index, e tu dici che l'indice è contratto. La funzione lineare più generale è una combinazione lineare delle tre componenti con alcuni coefficienti, quindi questo è il covettore generale.

La legge di trasformazione per un covettore deve essere basata sulla matrice inversa

$$ U'_i = \ bar {A} _i ^ j U_j $$

La moltiplicazione della matrice è semplice nella convenzione di Einstein:

$$ M ^ i_j N ^ j_k = (MN) ^ i_k $$

E la definizione di $ \ bar {A} $ (la matrice inversa ) fa in modo che il prodotto interno $ U_i V ^ i $ rimanga lo stesso sotto una trasformazione di coordinate (dovresti controllare questo).

Un tensore covariante di rango 2 è un covettore di covettori, e così via rango arbitrariamente alto.

Puoi anche creare un rango m, n tensore $ T ^ {i_1 i_2 ... i_m} _ {j_1j_2 ... j_n} $, con m indici superiori e n inferiori. Ogni indice si trasforma separatamente come vettore o covettore a seconda che sia alto o basso. Qualsiasi indice inferiore può essere contratto con qualsiasi indice superiore in un prodotto tensoriale, poiché questa è un'operazione invariante. Ciò significa che il rango m, n tensori può essere visualizzato in molti modi:

  • Come la funzione lineare più generale da m covettori en vettori in numeri
  • Come la più funzione lineare generale da un tensore covariante di rango m in un tensore controvariante di rango n
  • Come funzione lineare più generale da un tensore controvariante di rango n in un tensore covariante di rango m.

E così via per una serie di interpretazioni che cresce esponenzialmente con il rango. Questa è la definizione preferita dal matematico, che non enfatizza le proprietà di trasformazione, ma piuttosto enfatizza le mappe lineari coinvolte. Le due definizioni sono identiche, ma sono felice di aver appreso prima la definizione del fisico.

Nello spazio euclideo ordinario in coordinate rettangolari, non è necessario distinguere tra vettori e covettori, perché le matrici di rotazione hanno un inverso che è la loro trasposizione, il che significa che covettori e vettori si trasformano lo stesso sotto le rotazioni. Ciò significa che puoi avere solo indici al rialzo o solo al ribasso, non importa. È possibile sostituire un indice superiore con un indice inferiore mantenendo i componenti invariati.

In una situazione più generale, la mappa tra vettori e covettori è chiamata tensore metrico $ g_ {ij} $. Questo tensore prende un vettore V e produce un covettore (tradizionalmente scritto con lo stesso nome ma con un indice inferiore)

$$ V_i = g_ {ij} V ^ i $$

E questo ti permette di definire una nozione di lunghezza

$$ | V | ^ 2 = V_i V ^ i = g_ {ij} V ^ i V ^ j $$

questo è anche una nozione di prodotto scalare, che può essere estratta dalla nozione di lunghezza come segue:

$$ 2 V \ cdot U = | V + U | ^ 2 - | V | ^ 2 - | U | ^ 2 = 2 g _ {\ mu \ nu} V ^ \ mu U ^ \ nu $$

Nello spazio euclideo, il tensore metrico $ g_ {ij} = \ delta_ {ij} $ che è il delta di Kronecker. È come la matrice identità, tranne per il fatto che è un tensore, non una matrice (una matrice porta i vettori in vettori, quindi ha un indice superiore e uno inferiore --- nota che questo significa che porta automaticamente i covettori ai covettori, questa è la moltiplicazione del covettore dalla matrice di trasposizione nella notazione di matrice, ma la notazione di Einstein sussume ed estende la notazione di matrice, quindi è meglio pensare a tutte le operazioni di matrice come scorciatoia per alcune contrazioni dell'indice).

Il calcolo dei tensori è importante, perché molte quantità sono naturalmente vettori di vettori.

  • Il tensore di stress: se hai una quantità conservata scalare, la densità di corrente della carica è un vettore. Se hai una quantità conservata nel vettore (come la quantità di moto), la densità attuale della quantità di moto è un tensore, chiamato tensore di sollecitazione
  • Il tensore di inerzia: per il movimento rotatorio di un oggetto rigido, la velocità angolare è un vettore e il momento angolare è un vettore che è una funzione lineare della velocità angolare. La mappa lineare tra di loro è chiamata tensore d'inerzia. Solo per corpi altamente simmetrici il tensore è proporzionale a $ \ delta ^ i_j $, in modo che i due punti sempre nella stessa direzione. Questo è omesso dai corsi di meccanica elementare, perché i tensori sono considerati troppo astratti.
  • Vettori assiali: ogni vettore assiale in una teoria che preserva la parità può essere pensato come un tensore antisimmetrico di rango 2, mappando con il tensore $ \ epsilon_ {ijk} $
  • Rappresentazioni di spin elevato: la teoria delle rappresentazioni di gruppo è incomprensibile senza tensori ed è relativamente intuitivo se li usi.
  • Curvatura: la curvatura di una varietà è il cambiamento lineare in un vettore quando lo fai attorno a un anello chiuso formato da due vettori . È una funzione lineare di tre vettori che produce un vettore, ed è naturalmente un tensore di rango 1,3.
  • tensore metrico: questo è stato discusso in precedenza. Questo è l'ingrediente principale della relatività generale
  • Forme differenziali: sono tensori antisimmetrici di rango n, cioè tensori che hanno la proprietà che $ A_ {ij} = -A_ {ji} $ e la cosa analoga per rango più alto, dove si ottiene un segno meno per ogni trasposizione.

In generale, i tensori sono lo strumento fondamentale per le rappresentazioni di gruppo e sono necessari per tutti gli aspetti della fisica, poiché la simmetria è così centrale per la fisica.

Calmarius
2012-09-13 01:42:10 UTC
view on stackexchange narkive permalink

Ci sono già molte risposte, spero di poterlo rendere ancora più chiaro.

I tensori sono la generalizzazione delle trasformazioni lineari.

Il tensore è qualcosa che richiede $ m $ vettori e ne ricava $ n $ vettori.

$ n + m $ è l'ordine (o rango) del tensore.

Il loro tipo è indicato da $ (n, m) $ (n: vettori di output, m: vettori di input)

Quando un tensore prende 0 vettori significa che calcola qualcosa da un scalare (o è una costante), se un tensore fa 0 vettori, produce uno scalare.

Alcuni esempi di tensori per tipo:

  • (0,0): scalare, solo un numero.
  • (1,0): singolo vettore.
  • (2,0): a bivettore
  • (1,1): trasformazione lineare.
  • (0, 2): prodotto scalare di due vettori.
  • (1,2): prodotto incrociato di due vettori in 3D.
  • (1,3): tensore della curcatura di Riemann (se sei interessato alla relatività generale, ne avrai bisogno.)

I tensori possono essere descritti usando un array di numeri $ n + m $ dimensionale. Quindi è possibile accedere agli elementi del tensore usando $ n + m $ indici.

Ad esempio, la trasformazione lineare è un tensore del 2 ° ordine.

Gli elementi del tensore multidimensionale sono accessibili tramite indice, una matrice ha ovviamente 2 indici.

Ora qualcosa sulla notazione. Gli elementi tensoriali di solito hanno più indici, alcuni indici superiori e altri inferiori. Gli indici inferiori vanno per i vettori di input, gli indici superiori sono per i vettori di output. Nota: gli indici superiori non hanno nulla a che fare con gli esponenti!

Quindi un tensore di trasformazione lineare sarebbe simile a questo: $ L_j ^ i $.

Esegui una trasformazione lineare (ovvero il calcolo degli elementi del vettore risultante) in questo modo:

$ b ^ i = \ displaystyle \ sum_j L_j ^ ia ^ j $

Quindi supponi di essere in 3D e moltiplica una matrice 3 × 3 con un vettore colonna. In questo caso l'indice superiore è per le linee e quello inferiore per le colonne della matrice. $ i $ e $ j $ va da 1 alla dimensione in cui ti trovi (di solito 3).

Puoi concatenare queste trasformazioni lineari in questo modo:

$ c ^ k = \ displaystyle \ sum_i M_i ^ k \ displaystyle \ sum_j L_j ^ ia ^ j $

notò Einstein , che in queste formule di sommatoria l'indice sotto il segno di somma appare esattamente due volte. Quindi può essere rimosso. Quindi le due espressioni precedenti avranno questo aspetto:

$ b ^ i = L_j ^ ia ^ j $

$ c ^ k = M_i ^ k L_j ^ ia ^ j $

Che è molto analogo alle formule matriciali usate nell'algebra lineare. L'indice superiore uccide l'indice inferiore durante il calcolo, mentre gli indici solitari rimangono intatti.

Quindi puoi moltiplicare le due matrici come tensori in questo modo:

$ T_j ^ k = M_i ^ k L_j ^ i = \ displaystyle \ sum_i M_i ^ k L_j ^ i $

E infine un prodotto incrociato con tensori sarebbe simile a questo:

$ r ^ k = C_ { ij} ^ ka ^ ib ^ j $

$ C $èun array di numeri 3 × 3 × 3 moltiplicato per un vettore produrrà una matrice ordinaria, che moltiplicata per un altro vettore produrrà il vettore finale .

Un prodotto scalare nel linguaggio dei tensori sarebbe simile a questo:

$ r = D_ {ij} a ^ ib ^ j = \ displaystyle \ sum_ {i, j} D_ {ij} a ^ ib ^ j $

Dove $ D_ {ij} $ è una matrice di identità.

Ora l'articolo wiki su Tensori dovrebbe essere più comprensibile.

Spero che questo dia un aha momento a qualcuno.

Forse sto fraintendendo "prende" e "fa".Nella mia mente, il prodotto scalare prende due vettori e crea uno scalare, quindi penso che sarebbe (2,0) basato sulla tua descrizione di n e m, ma sembra essere l'opposto.
@Calmarius La tua spiegazione è fantastica, grazie!
prokaryoticeukaryote
2016-07-29 00:11:57 UTC
view on stackexchange narkive permalink

Nel contesto della fisica, la descrizione più illuminante che ho trovato è che un tensore è una quantità generalizzata le cui proprietà algebriche / analitiche non dipendono dal sistema di coordinate utilizzato *

Ora, il modo tradizionale per rappresentare una quantità generalizzata è come una combinazione lineare di vettori di base o come uno scalare. Ad esempio, lo slancio può essere rappresentato da $ p_x \ mathbf {\ hat {i}} + p_y \ mathbf {\ hat {j}} + p_z \ mathbf {\ hat {k}} $. Se modifichi le coordinate, diciamo con una rotazione passiva, il componente $ p_ \ alpha $ potrebbe cambiare e, ovviamente, i vettori di base cambieranno, ma la quantità di moto won't, proprio perché both i vettori di base e il i componenti cambiano. Puoi immaginare quanto sia importante che una quantità fisica abbia questa proprietà. Pertanto, i tensori servono come un oggetto matematico naturale con cui fare fisica teorica.

In realtà, sono solo una formalizzazione matematica di quasi tutte le quantità fisiche che avresti dovuto studiare da adesso. L'utilità di questa formalizzazione viene in primo piano una volta che inizi a studiare cose come la Relatività, che è tutto su il fatto che le leggi fisiche sono indipendenti da una classe molto generale di trasformazioni di coordinate lineari.

Questo comportamento è forse meglio catturato da un (il?) teorema fondamentale dei tensori, dove ogni tensore le cui componenti sono tutte $ 0 $ in un sistema di coordinate ha le sue componenti come $ 0 $ anche in tutti gli altri.

Ciò implica che se un'equazione che coinvolge i tensori è vera in un sistema di coordinate, è vera in tutti gli altri.

Questo teorema, per quanto posso dire, deriva da uno dei tanti quadri assiomatici per la definizione dei tensori. Alcuni framework iniziano introducendo i tensori come mappe multilineari. Molti iniziano definendo i tensori covarianti / controvarianti come insiemi di componenti multiindicizzati che seguono determinate regole di trasformazione.

Il risultato finale è, tuttavia, lo stesso. Ottieni qualcosa che può essere rappresentato da una serie di componenti e le cui proprietà algebriche / analitiche non cambiano indipendentemente dal sistema di coordinate che usi.

È importante notare che i tensor sono not semplicemente raccolte di componenti. In effetti, alcuni trattamenti di tensori sono completamente privi di componenti. Ad esempio, l'algebra geometrica rappresenta le operazioni tensoriali (si pensi a generalizzare geometriche) in termini di qualcosa chiamato prodotto geometrico. Eppure, le cose studiate sono ancora tensori proprio perché le loro proprietà non dipendono da "come le guardi".

* Per sistema di coordinate, intendo un sistema "tipico" che può essere ottenuto mediante trasformazioni lineari invertibili.

Arnold Neumaier
2012-07-14 15:53:33 UTC
view on stackexchange narkive permalink

I tensori sono oggetti con solitamente più indici, una generalizzazione di vettori e matrici, con proprietà di trasformazione definite sotto un cambiamento di base. Sono introdotti in modo diverso in tradizioni diverse, con notazioni diverse.

Potresti trovare la voce "Come sono correlate matrici e tensori?" dal Capitolo B8 del mio domande frequenti sulla fisica teorica pertinente per districare alcuni dei problemi associati.

Nick Alger
2016-09-13 15:00:04 UTC
view on stackexchange narkive permalink

Esistono diversi modi equivalenti per definire e comprendere i tensori e vale la pena comprendere tutte le diverse prospettive e le relazioni tra loro. La prospettiva che trovo più intuitiva e ben motivata è la prospettiva dei tensori come funzioni multilineari.

Un tensore è una funzione multilineare che accetta come input una raccolta di vettori e restituisce uno scalare. Per multilineare, si intende che la funzione è lineare in ogni input indipendentemente .

Si possono immaginare funzioni multilineari come approssimazioni locali di funzioni non lineari che dipendono da più variabili, dove l'approssimazione prende strutturalmente in considerazione il fatto che ci sono diversi input da diversi spazi. Proprio come quando ingrandisci una funzione non lineare di un vettore, sembra approssimativamente lineare, se ingrandisci una funzione di molti vettori sembra approssimativamente multilineare.

Se vengono scelte raccolte di vettori di base che si estendono su ogni spazio vettoriale di input, una funzione multilineare è completamente definita dalla sua azione su tutte le possibili combinazioni di vettori di base. I risultati dell'applicazione della funzione multilineare a tutte le combinazioni di vettori di base possono essere organizzati in un array multidimensionale di numeri, e questo array può essere considerato come una rappresentazione della funzione multilineare, rispetto alle basi date.

Se si cambiano le basi, ovviamente cambieranno le voci nella rappresentazione dell'array multidimensionale, ma in modo prevedibile. Il modo esatto in cui le voci dell'array cambiano quando si cambiano le basi sono note come "regole di trasformazione". In molte classi di fisica, scatole di numeri che obbediscono a queste regole di trasformazione sono presentate come la definizione di un tensore, che è una definizione perfettamente legittima, ma può essere sconcertante e immotivata se il contesto multilineare da cui provengono queste regole non viene spiegato.

Mantenendo fissi alcuni degli input a una funzione multilineare (nella terminologia del linguaggio di programmazione, "chiudendo" quegli input) si ottiene una funzione multilineare negli input rimanenti. La rappresentazione di matrice della funzione multilineare indotta negli input rimanenti può essere calcolata eseguendo una certa somma che coinvolge la matrice originale e i vettori di coordinate per i vettori di input fissi. Questo processo di formazione di una nuova funzione multilineare mantenendo fissi determinati input è noto come contrazione del tensore.

Poiché la fissazione di tutti gli input tranne uno a un tensore produce una funzione lineare nell'input rimanente, e poiché le funzioni lineari su uno spazio vettoriale possono essere identificate con elementi nello spazio duale a quello vettoriale, un tensore può essere ugualmente visto come un funzione multilineare che prende uno in meno della quantità originale di vettori come input e produce un vettore (duale) come output. Questa uscita può quindi essere utilizzata come uno degli ingressi per un altro tensore che ha un punto di ingresso per un vettore nello spazio duale che è stato emesso. Più in generale, è possibile costruire reti complicate in cui i vari input di un tensore vengono reinterpretati come output e quindi questi output vengono utilizzati come input in altri tensori nella rete (vedere Notazione grafica di Penrose).

Se si attacca un tensore diverso a ogni punto su una superficie (o collettore), la raccolta di tutti questi tensori è un campo tensore (proprio come se si attaccano vettori a tutti i punti su una varietà, si ottiene un campo vettoriale) . Un caso speciale comune è dove gli spazi vettoriali di input che formano il dominio del tensore in un punto sono copie dello spazio tangente e dello spazio cotangente della varietà in quel punto. In questo caso, basi convenienti da utilizzare possono essere formate dai vettori tangenti (o co-tangenti) in ogni punto associati ad alcuni grafici di coordinate preesistenti per la varietà. Se si cambia la parametrizzazione del collettore, cambieranno i grafici delle coordinate, quindi cambieranno le basi per il campo tensore in ogni punto, quindi cambieranno le rappresentazioni degli array dei tensori in ogni punto (ma in modo prevedibile ..).

Poiché i campi tensoriali sorgono in fisica molto più spesso dei singoli tensori, spesso il termine "tensore" è usato per riferirsi a un campo tensore. Questa terminologia funziona perché la maggior parte dei termini per le operazioni sui tensori può essere utilizzata anche per i campi tensoriali, con la consapevolezza che l'operazione viene eseguita simultaneamente a tutti i tensori nel campo, in modo puntuale.

Spero che questo aiuti con l'intuizione. Questa prospettiva è stata forgiata lentamente attraverso anni di lotta per comprendere io stesso i tensori dai primi principi; passando dall'essere completamente confusi all'inizio, all'avere tensori sembra naturale e chiaro ora. Questo post è ciò che vorrei che qualcuno mi avesse detto all'inizio.

"" Un tensore è una funzione multilineare che prende come input una raccolta di vettori e restituisce uno scalare. "" <- Questo sembra contraddire un'altra risposta altamente votata qui, che afferma che: "" Il tensore è qualcosa che accetta vettorie ne ricava vettori. ""
@kennysong Questi sono gli stessi a causa dell'isomorfismo multilineare: $ \ mathcal {L} ^ {n} \ left (X_1 \ times \ dots \ times X_n, \ mathcal {L} ^ m \ left (X_ {n + 1} \volte \ punti \ volte X_ {n + m} \ destra) \ destra) \ simeq \ mathcal {L} ^ {n + m} \ sinistra (X_1 \ volte X_2, \ punti \ volte X_ {n + m}, \mathbb {F} \ right) $, dove $ \ mathbb {F} $ è il campo base come $ \ mathbb {R} $ o $ \ mathbb {C} $.Qui $ \ mathcal {L} ^ k (A, B) $ è lo spazio di $ k $ mappe multilineari da $ A $ a $ B $.L'isomorfismo è currying (trattando alcuni input come costanti fisse, che produce una funzione multlineare negli input rimanenti)
Larry Harson
2015-01-17 00:22:54 UTC
view on stackexchange narkive permalink

Questo è ciò che A.Zee dice di un tensore dal suo libro Einstein Gravity in a Nutshell (Hardcover)

Un tensore è qualcosa che trasforma come un tensore

Molto tempo fa, uno studente universitario che in seguito divenne un illustre fisico della materia condensata venne da me dopo una lezione sulla teoria dei gruppi e mi chiese: "Che cos'è esattamente un tensore?" Gli ho detto che un tensore è qualcosa che si trasforma come un tensore . Quando l'ho incontrato molti anni dopo, mi ha intrattenuto con la seguente storia. Alla sua laurea, suo padre, forse ancora dolorante per la forte somma che aveva pagato alla prestigiosa università privata frequentata dal figlio, gli chiese quale fosse la conoscenza più memorabile che aveva acquisito durante i suoi quattro anni al college. Ha risposto: "Un tensore è qualcosa che si trasforma come un tensore."

Joebevo
2012-07-14 12:59:36 UTC
view on stackexchange narkive permalink

Un tensore è una generalizzazione della nozione di scalari e vettori. Un tensore di rango 0 è uno scalare (ha $ 3 ^ 0 $ compenent), mentre un tensore di rango 1 è un vettore (che ha $ 3 ^ 1 $ componenti). In generale, un tensore di rango $ n $ ha $ 3 ^ n $ componenti.

Vedi http://www.grc.nasa.gov/WWW/k-12/Numbers/Math/documents/Tensors_TM2002211716.pdf per una bella introduzione.

Perché un vettore deve avere 3 componenti?
Chiral Anomaly
2018-11-14 08:37:30 UTC
view on stackexchange narkive permalink

(Questa risposta è stata originariamente pubblicata per una domanda più recente, posta il 26 ottobre 2018, che è stata successivamente contrassegnata come domanda duplicata. Questa domanda più recente riguardava specificamente il contesto delle dinamiche rotazionali. Ho riposizionato la mia risposta qui il vantaggio di altri visitatori che cercano una risposta specifica per quel contesto.)

Nel contesto delle dinamiche rotazionali, un vettore $ v $ è qualcosa i cui componenti $ v_i $ trasformare in rotazioni come $$ v_i \ mapsto \ sum_j R_ {ij} v_j $$ dove $ R $ è una matrice di rotazione. Un tensore (come il tensore del momento d'inerzia) è qualcosa i cui componenti $ I_ {ij} $ si trasformano sotto rotazioni come $$ I_ {ij} \ mapsto \ sum_ {k, \ ell} R_ {ik} R_ {j \ ell} I_ {k \ ell}. $$ Più specificamente, questo è un $ 2 $ -index tensor. Un vettore è un $ 1 $ -indice tensore. In generale, un tensore $ N $ -index è una quantità con indici $ N $ (ovviamente) che si trasforma in rotazioni secondo lo schema illustrato sopra, con un $ R $ per indice.

Un semplice esempio di un tensore con indici $ 3 $ è $ T_ {ijk} = a_i b_j c_k $ span>, dove $ a, b, c $ sono vettori. Questo si trasforma automaticamente in modo corretto durante le rotazioni a causa del modo in cui $ a, b, c $ si trasforma.

I tensori hanno spesso simmetrie speciali. Ad esempio, il momento del tensore di inerzia $ I_ {ij} $ è simmetrico: $ I_ {ij} = I_ {ji } $ .

Tali simmetrie non influenzano la regola generale di come il tensore si trasforma sotto le rotazioni, ma possono portare a coincidenze interessanti. Ad esempio, la generalizzazione appropriata del momento angolare allo spazio $ D $ -dimensionale è rappresentata da un $ 2 $ span antisimmetrico > -index tensor, $ L_ {ij} = - L_ {ji} $ . A causa dell'antisimmetria, questo ha $ D (D-1) / 2 $ componenti indipendenti, ovvero quelli con $ i<j $ . (Quelli con $ j>i $ sono determinati dall'antisimmetria e quelli con $ i = j $ sono zero per antisimmetria.) Nel caso fisicamente rilevante $ D = 3 $ , $ L_ {ij} $ accade avere componenti $ 3 $ , come un vettore. Ancora più interessante (e meno banale), queste tre componenti risultano trasformarsi come le tre componenti di un vettore sotto rotazioni, anche se la regola generale per trasformare un tensore a due indici coinvolge due matrici di rotazione invece di una sola! Questo è il motivo per cui la maggior parte delle formulazioni di dinamica rotazionale rappresentano cose come momento angolare, velocità angolare e coppia come se fossero vettori, anche se sarebbero rappresentate più correttamente come tensori antisimmetrici a due indici.

In realtà, anche in $ D = 3 $ , c'è un chiaro sintomo che quantità come la velocità angolare (ecc.) non sono realmente vettori: si trasformano come vettori quando $ R $ è una rotazione ordinaria, ma non quando $ R $ è un riflesso . Termini come "vettore assiale" o "pseudovettore" si riferiscono a questa situazione. La direzione della velocità angolare non può essere invertita da una riflessione speculare (perché un tensore a due indici si trasforma con due fattori di $ R $ , quindi i segni meno si annullano), ma la direzione di un vettore legittimo (tensore a un indice) può essere invertita da un riflesso speculare.

Un sintomo più sottile che il momento angolare dovrebbe essere rappresentato come un tensore antisimmetrico a due indici (invece di un vettore = tensore a un indice) è il modo in cui è costruito. Ad esempio, un oggetto con quantità di moto $ p $ (un vettore) all'estremità di un'asta rotante senza massa di lunghezza $ r $ (un vettore) è solitamente scritto come $ L = r \ times p $ , o qualcosa del genere (il segno è una questione di convenzione). Il prodotto incrociato ha senso solo nello spazio tridimensionale. In realtà dovrebbe essere scritto $ L_ {ij} = r_i p_j-r_j p_i $ . Nello spazio tridimensionale, ha lo stesso elenco di componenti indipendenti del prodotto incrociato, ma la rappresentazione del tensore a due indici ha senso in qualsiasi numero di dimensioni.

In altri contesti, come la relatività, la definizione è analoga ma con il gruppo di trasformazioni di Lorentz (in relatività speciale) o tutte le trasformazioni di coordinate (in relatività generale) al posto del gruppo di rotazioni.

wbg
2012-07-28 02:50:17 UTC
view on stackexchange narkive permalink

La mia risposta molto semplice è davvero solo una delle tante situazioni in cui un tensore è utile quando descrive le forze su un corpo ... sono usate quasi ovunque in fisica, tuttavia ... questo è solo un SEMPLICE esempio.

Un corpo cubico si muove nell'aria e sente la resistenza al movimento ortogonale alla sua traiettoria. Questa forza normale potrebbe verificarsi su qualsiasi LATO del cubo. OPPURE, se il cubo è fermo, subisce la pressione dell'atmosfera, la pressione può essere scomposta in forze normali su ciascun lato.

Ora c'è la forza SHEAR, dell'aria viscosa che si aggrappa alla parte superiore del il cubo e il trascinamento deformano la parte superiore del cubo. Questa forza di taglio è sui lati paralleli al movimento del cubo in movimento. Questo può accadere PER OGNI superficie parallela.

I tensori sono utili quando TUTTE le possibilità sono effettivamente possibili e si verificano. Poi ci sono i trucchi per sommare le forze. Questo è ciò di cui parla tutta la matematica tenore di cui sopra.

Mi è stato detto da un grande professore di meccanica dei fluidi, che i tensori dovrebbero essere usati solo quando comprendiamo bene le forze e / o il sistema. In genere, quando si impara qualcosa di nuovo, iniziamo con ciascuna dimensione separatamente e risolviamo noiosamente tutta la matematica ... poi, quando sappiamo cosa sta succedendo, si possono usare i tensori.

sanjeev kumar
2020-08-02 05:25:54 UTC
view on stackexchange narkive permalink

Il tensore è un vettore multidimensionale nel linguaggio colloquiale.

Dove le variazioni in una direzione influiscono sull'altra.

Nella meccanica newtoniana assumiamo che tutte le forze, velocità ecc. che siano mutuamente ortogonali $ \ Rightarrow $ mutualmente indipendenti.

$$ F = F_x \ vec i + F_y \ vec j + F_z \ vec k $$

$ F_x \ vec i. F_y \ vec j = 0 $ da $ \ vec i. \ vec j = 0 $ Ogni volta che applichiamo una forza, risolviamo in componenti e calcoliamo che la rete eseguita sia zero se i componenti contribuiscono a zero lungo una data direzione.

Cioè, la forza applicata in una direzione non avrà alcun effetto in una direzione perpendicolare ad essa.

Mentre alcune quantità fisiche come la pressione applicata in una direzione possono produrre effetti anche in altre direzioni. La quantità direzionale corrispondente è il tensore dello stress.

Se premiamo un baloon in una direzione, possiamo vedere l'espansione in altre direzioni che sono anche reciprocamente perpendicolari.

Se spingiamo un cubo solido su un muro, non si muoverà mentre si solleva un palloncino. Questa è una semplice analogia che potrebbe distinguere un vettore e un tensore.

Qualsiasi variazione nella componente x del tensore dello stress ha i suoi effetti che si riflettono anche nelle direzioni y z.

$$ σ = \ begin {pmatrix} σ_ {11} & σ_ {12} & σ_ {13} \\ σ_ {21} & σ_ {22} & σ_ { 23} \\ σ_ {31} & σ_ {32} & σ_ {33} \ end {pmatrix} $$

Simile è il caso del momento di inerzia.

Qui ancora trattiamo gli effetti della causa in altre direzioni in modo indipendente.

In altre parole, trattiamo gli effetti nelle direzioni y, z in modo indipendente.

Quindi lo stress, i momenti di inerzia sono tensori di rango 2.

Cioè, alla volta potremmo connettere solo 2 dimensioni spaziali.

Levi-Civita è un tensore di rango 3 che utilizziamo nel momento angolare

$$ [L_i, L_j] = i \ hbar \ epsilon_ {ijk} L_k $$

Qui l'ordine di tutti e tre i, j, k decide il valore / segno della funzione $ \ epsilon_ {ijk} $ .

Nell'elettrodinamica e nella meccanica relativistica possiamo imbatterci anche in tensori di rango 4.



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Continua a leggere su narkive:
Loading...