Domanda:
Perché una cifra iniziale non viene conteggiata come cifra significativa se è 1?
Vinicius ACP
2019-12-23 07:19:31 UTC
view on stackexchange narkive permalink

Leggendo il libro Schaum's Outline of Engineering Mechanics: Statics mi sono imbattuto in qualcosa che non ha senso per me considerando l'argomento di cifre significative:

Schaum's Outline of Engineering Mechanics: Statics fragment Ho cercato e visto che praticamente la stessa cosa viene detta in un altro libro ( Fluid Mechanics DeMYSTiFied ): Fluid Mechanics DeMYSTiFied fragment


Quindi, la mia domanda è: perché se la cifra iniziale in una risposta è 1, non conta come cifra significativa?

Nota che quei 2 passaggi sono * chiaramente * plagiati l'uno dall'altro, quindi in realtà hai solo 1 fonte.
Nota che wikipedia non ha mai sentito parlare di questo concetto.Non una fonte definitiva, ovviamente, ma vale la pena considerare nel contesto di "cosa penserà il professionista medio STEM".
Altro su [cifre significative] (http://physics.stackexchange.com/search?q=is%3Aq+significant+figures).
@ReinstateMonica--Brondahl-- di quale concetto wikipedia non ha mai sentito parlare?[Cifre significative] (https://en.wikipedia.org/wiki/Significant_figures)?
@ReinstateMonica--Brondahl-- Quei libri condividono un autore.Quindi è lo stesso ragazzo che fa questa affermazione in due libri diversi.
Correlato: https://physics.stackexchange.com/a/358427/520
Un candidato migliore per ciò che probabilmente pensano i professionisti dell'ingegneria è la definizione del numero di cifre significative fornita da [IS 2: 1960] (https://archive.org/details/gov.in.is.2.1960/page/n11)e BS 1957: 1953.
Una cifra è qualcos'altro che una cifra ... che ** fa ** fa la differenza.
Cinque risposte:
knzhou
2019-12-23 07:31:48 UTC
view on stackexchange narkive permalink

Le cifre significative sono una scorciatoia per esprimere la precisione con cui conosci un numero. Ad esempio, se un numero ha due cifre significative, allora conosci il suo valore approssimativamente $ 1 \% $ .

Dico approssimativamente, perché dipende dal numero. Ad esempio, se segnali $$ L = 89 \, \ text {cm} $$ quindi questo implica approssimativamente che sai che è compreso tra $ 88,5 $ e $ 89,5 $ cm. Cioè, conosci il suo valore in una parte in $ 89 $ , che è approssimativamente in $ 1 \% $ .

Tuttavia, questo diventa meno preciso quanto più piccola è la cifra iniziale. Ad esempio, per $$ L = 34 \, \ text {cm} $$ lo conosci solo per una parte in $ 34 $ , che è circa $ 3 \% $ . E nel caso estremo $$ L = 11 \, \ text {cm} $$ lo conosci solo per una parte in $ 11 $ , che è circa $ 10 \% $ ! Quindi, se la cifra iniziale è un $ 1 $ , l'incertezza relativa della tua quantità è in realtà molto più alta di quanto suggerirebbe un conteggio ingenuo delle cifre significative. In effetti, è più o meno come ti aspetteresti se avessi una cifra significativa in meno. Per questo motivo, $ 11 $ ha "una" cifra significativa.

Sì, questa regola è arbitraria e non risolve completamente il problema.(Ora invece di avere una separazione netta tra $ L = 9 $ cm e $ L = 10 $ cm, hai una distanza netta tra $ L = 19 $ cm e $ L = 20 $ cm.)Ma le cifre significative sono uno strumento di contabilità, non qualcosa che "esiste" davvero.Sono definiti solo in modo da essere utili per stime rapide.In fisica, almeno, quando iniziamo a cavillare su questo livello di dettaglio, abbandoniamo completamente le cifre significative e facciamo un'analisi corretta degli errori dall'inizio.

Vale la pena notare che il taglio netto si sposta, ma il * grado * del limite è la metà escludendo 1 come cifra significativa iniziale.
@Kevin No, è davvero lo stesso.Se conti $ 1 $ come cifra significativa, ad es.two sig figs significa "ovunque tra l'1% e il 10% di incertezza".Se non si conta $ 1 $ come cifra significativa, due cifre significano "ovunque tra lo 0,5% e il 5% di incertezza".È ancora un intervallo di ordine di grandezza, solo ora è meglio centrato sull'1%.
Ah - vedo da dove vieni.Lo stavo vedendo come "il peggior livello di imprecisione è X%" - e l'approccio algoritmico diminuisce X% dal 10% al 5%.La stai vedendo come "la differenza di ordine di grandezza è sempre un fattore 10, indipendentemente da dove si trova la divisione".
@Kevin In base a questa logica, si ottiene un livello di inesattezza molto migliore sottraendo quattromila dal numero di cifre e chiamando _tutto_ il numero di cifre significative.Non è una metrica utile.
Questa mi sembra una buona risposta.Potrei ampliarlo un po 'dicendo qualcosa sull'analisi degli errori e esattamente come elude questo problema.Vorrei almeno indicare che in fisica, di solito si citano quantità come, ad esempio, $ 80 \ pm 30 cm $ piuttosto che fare affidamento su cifre significative per raccontare la storia.
Un esempio che mi piaceva usare quando insegnavo la materia al liceo era che gli studenti calcolassero l'area di un quadrato che è 5 piedi su ciascun lato.Fortunatamente, questo "non contare 1 come cifra significativa" non cambia il fatto che il risultato sia 30 ft².
Penso che il punto chiave sia, quando si definisce il valore limite tra 0,9 e 1, due cifre significative indicano un intervallo di errore dall'1% al 10%.Se si definisce il valore limite tra 1,9 e 2, due cifre significative indicano un errore dallo 0,5% al 5%.Nel primo caso, l'1% suggerito da "due cifre significative" è in realtà solo all'estremità inferiore dell'intervallo.Nel secondo caso, l'intervallo di errore effettivo può effettivamente essere maggiore * o * minore dell'1%.Il limite ideale sarebbe $ \ sqrt {10} = 3,16 $, quindi sarebbe una buona idea escludere anche un 2 iniziale dal conteggio delle cifre significative.
AleksandrH
2019-12-23 22:14:30 UTC
view on stackexchange narkive permalink

Questa non è una regola reale.E come alcune persone sottolineano nei commenti, non è nemmeno menzionato nell'articolo di Wikipedia sulle cifre significative.La regola si applica a $ 0 $ , non a $ 1 $ .

Semplice controesempio: $ 10 $ .Gli autori affermerebbero che questo numero non ha cifre significative?

Puoi verificarlo cercando "sig fig counter".Tutti dovrebbero dirti che il numero nella tua domanda ha 4 cifre significative.

Come altri notano, questa condizione al contorno è chiaramente arbitraria.Ma deve essere coerente in tutta la letteratura, altrimenti la confusione abbonda quando lavori con gli altri.Quindi direi di ignorare la regola.

Non solo questa regola è "una cosa", ma era quasi universale durante l'era del regolo calcolatore, sebbene sia passata di moda nei decenni successivi.
Per quanto riguarda il controesempio: diresti che lo zero non ha cifre significative?Il numero di tali cifre è solo un meccanismo per valutare quanto sei sicuro di quel valore.Ad esempio: se il valore effettivo è 1.00001, ma posso misurare solo centesimi e quindi vedere 1.00, potrei dire che è uno con tre cifre significative.(O secondo quegli autori, due cifre sig.).Tuttavia, l'analisi effettiva degli errori sarà sempre più robusta.
@Phlarx Nella definizione "tradizionale", un $ 0 $ finale non è considerato una cifra significativa, a meno che non sia seguito da una cifra diversa da zero.
Da dove viene la tua "definizione tradizionale"?Ad esempio, faccio la differenza tra 20 e 20.0.
La mia educazione, per esempio.Conosci le regole per le figure significative?http://chemistry.bd.psu.edu/jircitano/sigfigs.html
Non esiste un insieme di regole universalmente concordato per le cifre significative.Il problema è che l'intera nozione è uno strumento schietto (anche se troppo importante per eliminarlo del tutto) e tutte le serie di regole hanno pessimi casi d'angolo.Tuttavia, vari settori hanno documenti sugli standard, quindi se lavori in questi campi puoi indicare una fonte autorevole e dire "Questo è come lo facciamo".È solo che non troverai un accordo universale.Trovo che i chimici siano molto più unificati nel loro approccio rispetto ai fisici.
Inoltre, sì, c'è una distinzione tra 20 e 20.0.Stavo parlando di un numero come 10, che ha solo 1 sig fig.
A proposito, la risposta alla tua domanda su "10" è che su un regolo calcolatore sarebbe $ 1.00 \ x 10 ^ 1 $, quindi "ovviamente" ha due sig-fig, e per i valori interi effettivi l'intera nozione è fuori luogo.Il contesto conta.
Jasen
2019-12-23 07:30:27 UTC
view on stackexchange narkive permalink

Troncare i numeri con una certa precisione è completamente arbitrario.Non c'è motivo per non renderlo più arbitrario.

Sembra che a qualcuno non piacesse il passaggio di precisione tra 9,99 e 10,0, quindi l'hanno spostato tra 19,99 e 20,0.

In qualsiasi campo in cui i risultati sono raggruppati intorno a una potenza di 10, questa operazione può essere utile.

Uh, no, non è solo "l'abbiamo semplicemente spostato".Il livello di imprecisione tra 9,99 e 10,0 è il doppio di quello che è tra 19,99 e 20,0.Questa regola rafforza il livello di imprecisione consentito per un determinato numero di cifre significative.
ma solo perché i numeri sono due volte più grandi il passo è ancora circa 10 volte.
... per quanto arbitrario tu possa pensare, in parte è solo buon senso."100.0" è davvero dieci volte più preciso di "99.0" se misurato con lo stesso strumento, diciamo?
Kevin
2019-12-27 03:49:51 UTC
view on stackexchange narkive permalink

It's Experiment Time!

(Stavo iniziando a vedere entrambi i punti di vista sull'opportunità di abbandonare l'1 ed ero curioso se ci fosse un modo oggettivo per affrontare il problema ... quindi ho pensato che potesse essere una buona opportunità per un esperimento. Per Scienza!)

Assumptions: Significant Digits sono un modo per indicare la precisione su un numero, sia per incertezza di misurazione che come risultato di calcoli su una misurazione. Se moltiplichi due misurazioni insieme, il risultato ha lo stesso numero di cifre significative del più basso dei due valori iniziali (quindi 3,8714 x 2,14 ha un totale di tre cifre, non sette come si otterrebbe collegandolo a una calcolatrice). / p>

Quella parte del "calcolo" è ciò di cui vorrei approfittare. Perché discutere cifre significative su un numero nel vuoto è solo semantica. Vedere come la precisione prosegue con le operazioni effettive fornisce una previsione verificabile effettiva. (In altre parole, questo dovrebbe rimuovere qualsiasi tipo di problema di "interruzione". Se due numeri hanno X cifre significative, la loro moltiplicazione dovrebbe avere una precisione di circa X cifre significative - e la validità del modo in cui si determina cosa è significativo cifra dovrebbe tradursi di conseguenza.)

Layout sperimentale

Genera due coefficienti di alta precisione conformi a Benford (non sono sicuro che Benford sia importante in questo esperimento, ma ho pensato di non dover omettere alcun possibile fattore di complicanza e, se stiamo parlando di fisica, le nostre misurazioni dovrebbero essere si adattano alla legge di Benford.) Esegui un'operazione come la moltiplicazione su di essi. Quindi, arrotondare gli stessi coefficienti per difetto a 4 cifre dopo il decimale ed eseguire la stessa moltiplicazione su quei valori arrotondati. Infine, controlla quante cifre hanno in comune i due valori risultanti.

Ovvero, controlla quanto la versione "misurazione" imprecisa confronta il calcolo effettivo, nascosto e di alta precisione.

Ora, in un mondo ideale, il valore sarebbe 5 cifre (significative) corrispondenti. Tuttavia, poiché stiamo solo controllando alla cieca se le cifre corrispondono, ne avremo alcune che corrispondono per pura fortuna.

Risultati sperimentali per la moltiplicazione

  Cifre che corrispondono dove il risultato non inizia con uno
    ... e nessun valore di input inizia con Uno:
            La 5a cifra corrisponde all'89,7%
            6 ° partite 21,4%
    ... e un valore di input inizia con Uno:
            La 5a cifra corrisponde al 53,7%
            6 ° partite 5,57%
    ... e due valori di input iniziano con Uno:
            La quinta cifra corrisponde all'85,2%
            6 ° partite 11,1%
Cifre che corrispondono dove il risultato inizia con uno:
    ... e nessun valore di input inizia con Uno:
            La quinta cifra corrisponde a 99,9 +%
            6 ° partite 37,8%
    ... e un valore di input inizia con Uno:
            La quinta cifra corrisponde a 99,9 +%
            6 ° partite 25,5%
    ... e due valori di input iniziano con Uno:
            La quinta cifra corrisponde al 95,0%
            6 ° partite 13,9%
 

Conclusioni per la moltiplicazione

Innanzitutto, moltiplicando due numeri e terminando con un numero che inizia con 1, dovresti probabilmente contare l'1 come cifra significativa. In altre parole, se moltiplichi "4,245" x "3,743" e ottieni "15 .889035 ", dovresti probabilmente lasciarlo a "15 .89". Se aggiungi una cifra aggiuntiva e la chiami "15 .889 ", hai il 38% di probabilità che quella cifra finale sia corretta ... che probabilmente non è abbastanza alta da poter essere inclusa.

Ma moltiplicando dove uno degli input inizia per 1, diventa strano. Moltiplicando "1,2513" x "5,8353" e realisticamente, non hai cinque cifre significative nel risultato. Secondo l'esperimento, hai quattro cifre ... e una probabilità del 54% di avere ragione con quel quinto valore. Bene, se una probabilità del 38% nella situazione precedente (moltiplicando due numeri e terminando con un valore che inizia con "1") di ottenere una cifra significativa "extra" non è accettabile, allora è probabilmente giusto dire che la probabilità del 54% in questa situazione è probabilmente troppo bassa per giustificare l'inclusione della quinta cifra.

Quindi potresti essere tentato di dire "Non considerare un 1 iniziale significativo come un input di un calcolo" ... tranne che moltiplicando 1. ##### x 1. #### (due numeri che iniziano con 1) ti dà una precisione dell'85,2% su quella quinta cifra, che è più o meno lo stesso livello di precisione in cui nessuno dei tre numeri inizia con 1. Quindi se 8,83 x 8,85 dovrebbe avere tre cifre significative, lo stesso dovrebbe essere 1,83 x 1,85.

Final Conclusione: In realtà è un problema ingannevolmente difficile capire una buona euristica. Soprattutto perché c'è una differenza piuttosto grande tra una misura di 1.045 che viene inserita nell ' input di un calcolo e quella di 1.045 che risulta come risultato di un calcolo. Il che spiega perché esistono diversi metodi per gestire gli 1 principali. (Se fossi costretto a scegliere un'euristica, sarebbe: non contare l''1 'iniziale su nessuna misurazione eseguita, ma contalo per l'output di qualsiasi calcoli .)

rob
2019-12-25 02:40:27 UTC
view on stackexchange narkive permalink

Tenere traccia delle "cifre significative" è un'euristica per indicare approssimativamente la precisione di un numero. Non è un sostituto per una reale analisi dell'incertezza, ma è abbastanza buono per molte persone e per molti scopi. Quando alcune persone si imbattono nei limiti di cifre significative, hanno un background sufficiente (o colleghi con background sufficiente) per passare a un'analisi degli errori più seria. Quando altre persone si scontrano con le stesse limitazioni, cercano di "correggere" l'approccio delle cifre significative creando nuove regole ad-hoc come questa.

Supponiamo che tu ed io stiamo analizzando in modo indipendente lo stesso set di dati. Ognuno di noi ha misurato la stessa quantità a due cifre significative: il tuo risultato è 0,48 e il mio risultato è 0,52. Poiché un'analisi sana delle cifre significative conserva una cifra meno significativa il cui valore è solo per lo più affidabile, non è chiaro se le nostre misurazioni siano d'accordo o meno; quel livello di disaccordo è interessante e potremmo finire per discutere come trasformarlo in un esperimento con tre cifre significative, nel caso in cui entrambi abbiamo misurato correttamente un valore "vero" più vicino a 0,498.

Ora immagina un universo diverso in cui entrambi facciamo lo stesso esperimento, ma una definizione diversa da qualche parte significa che i nostri "risultati" sono diversi numericamente di un fattore numerico esatto di venti. La tua misura in questo universo è 9.6 e la mia è 10.4. C'è ancora una tensione interessante tra questi numeri. Ma se conto l'1 iniziale come una delle mie due cifre significative, dovrei riportare il mio risultato come "10", suggerendo che è altrettanto probabile che sia "9" o "11." Se si segnala 9.6 e io riporto 10, la tensione tra i nostri risultati è molto meno evidente. Inoltre sembra che il mio risultato sia dieci volte meno preciso del tuo. Non dovrei essere in grado di modificare la precisione di un numero raddoppiandolo o dimezzandolo.

Questa è la logica per tenere traccia di una "cifra di guardia" se un numero cade nella parte inferiore di un decennio logaritmico. (Particle Data Group mantiene una "cifra di guardia" se le prime due cifre significative sono comprese tra 10 e 35.) Ma per spiegarlo dicendo che "un 1 iniziale non è una cifra significativa", come fa la tua fonte: è terribilmente confuso. Trovo un libro scritto da qualcun altro e leggo l'autore che citi qui con una certa cautela.

@supercat mi ricorda in un commento che esiste una convenzione compatta per rappresentare le incertezze reali che è diventata popolare in letteratura negli ultimi due decenni: si scrive l'incertezza nelle ultime cifre tra parentesi subito dopo il numero. Ad esempio, si potrebbe scrivere $ 12,34 (56) $ come abbreviazione di $ 12,34 \ pm 0,56 $ . Questo approccio è utile nel settore delle misurazioni di precisione, dove ci sono molte cifre significative. Ad esempio, l'attuale riferimento Particle Data Group riporta la massa dell'elettrone (in unità di energia) come $ 0,510 \ 998 \ 950 \ 00 (15) \, \ mathrm {MeV} / c ^ 2 $ , che è molto più facile da scrivere e analizzare rispetto a $ 0,510 \ 998 \ 950 \ 00 \, \ mathrm {MeV} / c ^ 2 \ pm 0.000 \ 000 \ 000 \ 15 \, \ mathrm {MeV} / c ^ 2 $ .

Non ho visto questo approccio molto nel materiale per gli studenti introduttivi e posso pensare a un paio di ragioni per cui. Le "regole delle cifre significative" sono, per la maggior parte delle persone, la prima volta che apprendono che l'aritmetica è qualcosa che puoi fare con numeri non esatti. Molti studenti sono intellettualmente impreparati a quell'idea: sono pronti a scrivere 0,5 invece di 1/2, ma sono vaghi sull'opportunità di decimalizzare 1/7 come 0,1 o come 0,1428571429, perché quest'ultimo è come viene fuori dal calcolatrice. Inoltre, per utilizzare la notazione tra parentesi, è necessario avere già una certa comprensione delle figure significative. Per combinare i miei esempi sopra, la maggior parte delle persone che non sono nel business delle misurazioni di precisione (dove comprendere l'incertezza può essere più difficile che comprendere il valore centrale) scriverebbe 12,3 (6) piuttosto che mantenere le cifre di guardia in 12,34 (56). Ma se moltiplichi quel valore per venti, diventerebbe 246,8 (11,2). Se registrarlo così, o come 247 (11), o come $ 250 \ pm10 $ , finisce per sollevare gli stessi problemi sulle cifre di guardia che hanno dato inizio a questa domanda. Mentre l'ambiguità viene spostata dal valore centrale all'incertezza, quindi la posta in gioco per giudicare male è inferiore, spiegare questo a una persona che è nuova all'idea di un'attenta imprecisione è un compito arduo.

Peccato che non sia emersa alcuna convenzione per distinguere tra valori che abbiano diversi livelli di incertezza nell'ultimo posto, forse sostituendo l'ultima cifra con 0/2 o 1/2, o 0/4, 1/4, 2/4 o 3 /4 in modo che il più grande cambiamento nell'incertezza espressa tra livelli adiacenti di precisione sarebbe un fattore di 2,5 anziché un fattore di dieci.
@supercat C'è una tale convenzione.Ho aggiornato la risposta.
Non avevo visto quella convenzione.Ricordo una tavola periodica piuttosto antica (probabilmente degli anni '70) che contrassegnava alcune delle masse atomiche con un asterisco che indicava che erano +/- 4 nell'ultimo posto, mentre altri valori erano entro +/- 1 nell'ultimo posto.Esiste una convenzione per distinguere tra i valori compresi tra 0.501ulp, 0.75ulp o 1ulp?Inoltre, un'altra cosa che ho pensato dovrebbe essere standardizzata è un mezzo per indicare valori che dovrebbero essere considerati esatti con una precisione arbitraria.Se si hanno otto scaffali con otto file di otto colonne di blocchi, non si ha ...
"500" blocchi (una cifra significativa), ma 512 esattamente.
Quando la precisione sub-ULP è importante, stai facendo un'analisi reale dell'incertezza piuttosto che usare cifre significative come scorciatoia.Il modo più comune per indicarlo è aggiungere una o più cifre di guardia durante la registrazione dell'incertezza.Si noti che l'analisi moderna viene spesso eseguita end-to-end utilizzando numeri in virgola mobile a doppia precisione sui computer, che hanno circa quindici cifre significative;la maggior parte di quella precisione potrebbe essere considerata cifre di guardia.Per i valori esatti, il modo affidabile per comunicarli è una frase esplicativa.@supercat


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 4.0 con cui è distribuito.
Loading...