Copertina
Autore Sheldon M. Ross
Titolo Probabilità e statistica per l'ingegneria e le scienze
EdizioneApogeo, Milano, 2003, Idee & strumenti , pag. 582, cop.fle., dim. 168x240x30 mm , Isbn 978-88-7303-897-9
OriginaleIntroduction to Probability and Statistics for Engineers and Scientists
EdizioneAcademic, London, 2000
TraduttoreFrancesco Morandin
Classe matematica , scienze tecniche
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice

Indice generale
Presentazione dell'edizione italiana xi Prefazione xiii Capitolo l Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva 1 1.2 Inferenza statistica e modelli probabilistici 2 1.3 Popolazioni e campioni 3 1.4 Una breve storia della statistica 4 Problemi 7 Capitolo 2 Statistica descrittiva 11 2.1 Introduzione 11 2.2 Organizzazione e descrizione dei dati 12 2.2.1 Tabelle e grafici delle frequenze 12 2.2.2 Tabelle e grafici delle frequenze relative 13 2.2.3 Raggruppamento dei dati, istogrammi, ogive e diagrammi stem and leaf 15 2.3 Le grandezze che sintetizzano i dati 19 2.3.1 Media, mediana e moda campionarie 19 2.3.2 Varianza e deviazione standard campionarie 25 2.3.3 Percentili campionari e box plot 27 2.4 La disuguaglianza di Chebyshev 30 2.5 Campioni normali 32 2.6 Insiemi di dati bivariati e coefficiente di correlazione campionaria 35 Problemi 41 Capitolo 3 Elementi di probabilità 59 3.1 Introduzione 59 3.2 Spazio degli esiti ed eventi 60 3.3 I diagrammi di Venn e l'algebra degli eventi 62 3.4 Assiomi della probabilità 63 3.5 Spazi di esiti equiprobabili 66 3.5.1 Il coefficiente binomiale 69 3.6 Probabilità condizionata 71 3.7 Fattorizzazione di un evento e formula di Bayes 74 3.8 Eventi indipendenti 80 Problemi 82 Capitolo 4 Variabili aleatorie e valore atteso 91 4.1 Variabili aleatorie 91 4.2 Variabili aleatorie discrete e continue 94 4.3 Coppie e vettori di variabili aleatorie 98 4.3.1 Distribuzione congiunta per variabili aleatorie discrete 99 4.3.2 Distribuzione congiunta per variabili aleatorie continue 102 4.3.3 Variabili aleatorie indipendenti 104 4.3.4 Generalizzazione a più di due variabili aleatorie 106 4.3.5 *Distribuzioni condizionali 108 4.4 Valore atteso 111 4.5 Proprietà del valore atteso 116 4.5.1 Valore atteso della somma di variabili aleatorie 119 4.6 Varianza 122 4.7 La covarianza e la varianza della somma di variabili aleatorie 125 4.8 La funzione generatrice dei momenti 129 4.9 La legge debole dei grandi numeri 131 Problemi 134 Capitolo 5 Modelli di variabili aleatorie 145 5.1 Variabili aleatorie di Bernoulli e binomiali 145 5.1.1 Calcolo esplicito della distribuzione binomiale 151 5.2 Variabili aleatorie di Poisson 152 5.2.1 Calcolo esplicito della distribuzione di Poisson 159 5.3 Variabili aleatorie ipergeometriche 159 5.4 Variabili aleatorie uniformi 164 5.5 Variabili aleatorie normali o gaussiane 170 5.6 Variabili aleatorie esponenziali 178 5.6.1 *Il processo di Poisson 182 5.7 *Variabili aleatorie di tipo Gamma 185 5.8 Distribuzioni che derivano da quella normale 188 5.8.1 Le distribuzioni chi-quadro 188 5.8.2 Le distribuzioni t 192 5.8.3 Le distribuzioni F 195 Problemi 196 Capitolo 6 La distribuzione delle statistiche campionarie 205 6.1 Introduzione 205 6.2 La media campionaria 207 6.3 Il teorema del limite centrale 208 6.3.1 Distribuzione approssimata della media campionaria 215 6.3.2 Quando un campione è abbastanza numeroso? 217 6.4 La varianza campionaria 217 6.5 Le distribuzioni delle statistiche di popolazioni normali 219 6.5.1 La distribuzione della media campionaria 219 6.5.2 La distribuzione congiunta di X' e S^2 220 6.6 Campionamento da insiemi finiti 222 Problemi 225 Capitolo 7 Stima parametrica 231 7.1 Introduzione 231 7.2 Stimatori di massima verosimiglianza 232 7.3 Intervalli di confidenza 239 7.3.1 Intervalli di confidenza per la media di una distribuzione normale, quando la varianza non è nota 244 7.3.2 Intervalli di confidenza per la varianza di una distribuzione normale 250 7.4 Stime per la differenza delle medie di due popolazioni normali 251 7.5 Intervalli di confidenza approssimati per la media di una distribuzione di Bemoulli 258 7.6 *Intervalli di confidenza per la media della distribuzione esponenziale 262 7.7 *Valutare l'efficienza degli stimatori puntuali 263 7.8 *Stimatori bayesiani 269 Problemi 274 Capitolo 8 Verifica delle ipotesi 285 8.1 Introduzione 285 8.2 Livelli di significatività 286 8.3 La verifica di ipotesi sulla media di una popolazione normale 288 8.3.1 Il caso in cui la varianza è nota 288 8.3.2 Quando la varianza non è nota: il test t 300 8.4 Verificare se due popolazioni normali hanno la stessa media 306 8.4.1 Il caso in cui le varianze sono note 307 8.4.2 Il caso in cui le varianze non sono note ma si suppongono uguali 309 8.4.3 Il caso in cui le varianze sono ignote e diverse 314 8.4.4 Il test t per campioni di coppie di dati 314 8.5 La verifica delle ipotesi sulla varianza di una popolazione normale 316 8.5.1 Verificare se due popolazioni normali hanno la stessa varianza 318 8.6 La verifica di ipotesi su una popolazione di Bemoulli319 8.6.1 Verificare se due popolazioni di Bemoulli hanno lo stesso parametro 322 8.7 Ipotesi sulla media di una distribuzione di Poisson 324 8.7.1 Testare la relazione tra i parametri di due popolazioni di Poisson 325 Problemi 327 Capitolo 9 Regressione 341 9.1 Introduzione 341 9.2 Stima dei parametri di regressione 343 9.3 Distribuzione degli stimatori 345 9.4 Inferenza statistica sui parametri di regressione 350 9.4.1 Inferenza su 'beta' 351 9.4.2 Inferenza su 'alfa' 358 9.4.3 Inferenza sulla risposta media 'alfa' + 'beta'X 359 9.4.4 Intervallo di predizione di una risposta futura 361 9.4.5 Sommario dei risultati 363 9.5 Coefficiente di determinazione e coefficiente di correlazione campionaria 363 9.6 Analisi dei residui: verifica del modello 365 9.7 Linearizzazione 368 9.8 Minimi quadrati pesati 372 9.9 Regressione polinomiale 378 9.10 *Regressione lineare multipla 381 9.10.1 Predizione di risposte future 390 Problemi 395 Capitolo 10 Analisi della varianza 413 10.1 Introduzione 413 10.2 Lo schema generale 414 10.3 Analisi della varianza ad una via 416 10.3.1 Confronti multipli delle medie 422 10.3.2 Campioni con numerosità diverse 423 10.4 Analisi della varianza a due vie: introduzione e stima parametrica 425 10.5 Analisi della varianza a due vie: verifica di ipotesi 429 10.6 Analisi della varianza a due vie con interazioni 433 Problemi 440 Capitolo 11 Verifica del modello e test di indipendenza 451 11.1 Introduzione 451 11.2 Test di adattamento ad una distribuzione completamente specificata 452 11.2.1 Determinazione della regione critica per simulazione 457 11.3 Test di adattamento ad una distribuzione specificata a meno di parametri 460 11.4 Test per l'indipendenza e tabelle di contingenza 462 11.5 Tabelle di contingenza con i marginali fissati 466 11.6 *Il test di adattamento di Kolmogorov-Smirnov per i dati continui 469 Problemi 474 Capitolo 12 Test statistici non parametrici 481 12.1 Introduzione 481 12.2 Il test dei segni 482 12.3 Il test dei segni per ranghi 485 12.4 Il confronto di due campioni 491 12.4.1 Approssimazione classica 496 12.4.2 Simulazione 497 12.5 Test delle successioni per la casualità di un campione 499 Problemi 502 Capitolo 13 Controllo della qualità 507 13.1 Introduzione 507 13.2 La carta di controllo X' per il valore medio 508 13.2.1 Il caso in cui 'mu' e 'sigma' siano incognite 512 13.3 La carta di controllo S 515 13.4 Carte di controllo per attributi 518 13.5 Carte di controllo per il numero di non conformità 521 13.6 Altre carte di controllo per la media 525 13.6.1 Carte per le medie mobili 525 13.6.2 Carte per le medie mobili con pesi esponenziali (EWMA) 528 13.6.3 Carte di controllo per le somme cumulate 532 Problemi 535 Capitolo 14 Affidabilità dei sistemi 541 14.1 Introduzione 541 14.2 Funzione di intensità di rotture 541 14.3 Il ruolo della distribuzione esponenziale 544 14.3.1 Prove simultanee - interruzione al fallimento r-esimo 544 14.3.2 Prove sequenziali 550 14.3.3 Test simultaneo - interruzione ad un tempo fissato554 14.3.4 Approccio bayesiano 556 14.4 Confronto di due campioni 558 14.5 La distribuzione di Weibull 559 14.5.1 Stima parametrica con il metodo dei minimi quadrati 561 Problemi 563 Appendice Tabelle 569 Indice analitico 581  

 

| << |  <  |  >  | >> |

Pagina XIII

Prefazione



Questo libro è scritto per un corso introduttivo di statistica o di probabilità e statistica per studenti di ingegneria, informatica, matematica, statistica o scienze naturali. Si presuppone che lo studente possegga le basi dell'analisi matematica.

Il Capitolo 1 presenta la statistica dal punto di vista storico, e ne illustra le due branche principali, la statistica descrittiva e quella inferenziale. La prima di esse è sviluppata nel Capitolo 2, che spiega come rappresentare efficacemente un campione di dati in forma grafica o tabellare. Vengono pure introdotte delle quantità che sintetizzano i dati in un numero contenuto di informazioni significative: le statistiche campionarie.

In tutti i casi in cui si cercano informazioni su una popolazione numerosa tramite l'esame di un campione casuale ridotto, vi è una certa aleatorietà nell'esperimento, e di conseguenza anche nelle conclusioni a cui si giunge. La teoria della probabilità è quindi indispensabile a formalizzare le conclusioni dell'inferenza statistica, ed è necessario che lo studente ne acquisisca le basi. Quest'ultimo è l'obiettivo del Capitolo 3, che introduce l'idea di esperimento probabilistico, illustra il concetto di probabilità di un evento e presenta gli assiomi della probabilità. Tale studio prosegue e viene sviluppato nel Capitolo 4, che si occupa dei fondamentali concetti di variabile aleatoria e di speranza matematica, e nel Capitolo 5, che passa in rassegna alcuni tipi speciali di variabili aleatorie che emergono spesso nelle applicazioni. Vengono definite le variabili aleatorie binomiali, di Poisson, ipergeometriche, normali, uniformi, gamma, chi-quadro, le t di Student e le F di Fisher.

Nel Capitolo 6 studiamo la distribuzione di statistiche campionarie come la media e la varianza campionarie. Mostriamo come usare un notevole risultato della teoria della probabilità, il teorema del limite centrale, per approssimare la distribuzione di probabilità della media campionaria. Inoltre discutiamo la distribuzione congiunta di media e varianza campionaria nel caso fondamentale in cui i dati provengano da una popolazione gaussiana.

Il Capitolo 7 mostra come usare i dati per stimare parametri di interesse. Pensiamo ad uno studioso che voglia determinare la frazione dei laghi statunitensi soggetta a piogge acide. Vi sono due tipologie di stimatori sostanzialmente diverse, che si possono considerare. Nel primo caso si stima la quantità in questione con un singolo numero (per esempio si potrebbe ottenere che il 47% circa dei laghi è interessato da piogge acide), mentre nel secondo si ricava una stima che ha la forma di un intervallo di valori (nel nostro esempio si potrebbe trovare che la percentuale di laghi colpiti da piogge acide cade tra il 45% ed il 49%). Il secondo tipo di stimatori ci dice anche il "livello di confidenza" che possiamo avere sulla loro validità. Infatti mentre è quasi impossibile che il valore reale coincida precisamente con quello da noi stimato inizialmente (47%), un intervallo di valori ci consente una maggiore sicurezza, e possiamo avere una certa confidenza (ad esempio del 95%) che la percentuale effettiva sia compresa tra il 45% ed il 49%.

Il Capitolo 8 presenta i test di ipotesi, un settore importante che riguarda l'utilizzo dei dati per verificare la plausibilità di ipotesi definite in precedenza. Un esempio di ipotesi statistica valida potrebbe essere che meno del 44% dei laghi americani sia soggetto a piogge acide, e il test su un campione di quei laghi potrebbe permettere di escluderla, oppure accettarla. Viene quindi introdotto il concetto di p-dei-dati, una grandezza che misura il grado di plausibilità dell'ipotesi assegnata, dopo l'osservazione dei dati. Vengono presi in considerazione diversi tipi di test di ipotesi, in particolare quelli riguardanti media e varianza di una o due popolazioni normali, e quelli sui parametri delle distribuzioni di Bernoulli e di Poisson.

Il Capitolo 9 si occupa della regressione. Vengono trattate sia la regressione lineare semplice, sia quella multipla, approfondite con lo studio dei residui, tecniche di linearizzazione, minimi quadrati pesati e cenni storici sul fenomeno del regressione alla media di Galton.

Il Capitolo 10 introduce l'analisi della varianza. Vengono considerati sia i problemi ad una via sia quelli a due vie (con o senza interazione).

Il Capitolo 11 riguarda i test di adattamento, che possono essere usati per verificare se il modello proposto sia compatibile coi dati. Il test classico del chi-quadro viene presentato e applicato alla verifica dell'indipendenza in tabelle di contingenza. La sezione finale del capitolo presenta il test di Kolmogorov-Smirnov, che si usa per verificare se i dati provengano da una distribuzione continua assegnata.

Il Capitolo 12 affronta i test di ipotesi non parametrici, che possono essere impiegati quando non si è in grado di stabilire la particolare classe (ad esempio normale, o esponenziale) della distribuzione originale dei dati.

Il Capitolo 13 considera il controllo di qualità, una tecnica statistica fondamentale per i processi di fabbricazione e produzione. Vengono affrontate diverse carte di controllo di Shewhart, e anche alcune più sofisticate, basate sulle medie mobili e le somme cumulate.

Il Capitolo 14 affronta l'inferenza sul tempo di vita dei sistemi. In questo ambito è la distribuzione esponenziale piuttosto che la normale ad avere un ruolo chiave.

Sul sito web dedicato a questo libro (www.apogeonline.com/libri/OO897/allegati/) è disponibile un software statistico liberamente scaricabile e che può essere usato per risolvere la gran parte dei problemi di statistica del testo. Il software è formato da una collezione di programmi. Una prima parte di essi consente di calcolare il p-dei-dati per la maggior parte dei test di ipotesi, compresi quelli sull'analisi della varianza e la regressione. Altri permettono di ottenere le probabilità che definiscono le più importanti distribuzioni. Un ultimo programma infine ha lo scopo di illustrare il Teorema del Limite Centrale; esso considera variabili aleatorie che assumono i valori O, l, 2, 3 e 4 con probabilità che sono assegnate dall'utente assieme ad un intero n, e visualizza la funzione di massa di probabilità della somma di n variabili aleatorie indipendenti con questa distribuzione. Facendo crescere n si può "vedere" la funzione di massa convergere alla forma tipica di una densità di probabilità gaussiana.

| << |  <  |  >  | >> |

Pagina 1

1 Una introduzione alla statistica


La raccolta dei dati e la loro analisi sono strumenti indispensabili per capire a fondo la complessa realtà che ci circonda. La statistica è l'arte di apprendere dai dati. Essa si occupa della loro raccolta, della loro descrizione e della loro analisi, guidandoci nel trarre le conclusioni.

| << |  <  |  >  | >> |

Pagina 4

1.4 Una breve storia della statistica


La raccolta sistematica di dati sulla popolazione e sull'economia ebbe origine a Venezia e a Firenze durante il Rinascimento. Il termine statistica deriva dalla parola stato, in quanto indicava una raccolta di fatti di interesse per lo stato. L'idea di raccogliere dati si diffuse dall'Italia a tutta l'Europa occidentale, ed entro la prima metà del sedicesimo secolo era generalmente diffusa la consuetudine, presso i governi europei, di richiedere alle parrocchie di registrare nascite, matrimoni e morti. A causa delle tragiche condizioni di salute pubbliche, quest'ultima statistica era di particolare importanza.

Fino al diciannovesimo secolo, l'alta mortalità registrata in Europa era principalmente dovuta a malattie epidemiche, guerre e carestie. Tra le epidemie, la peggiore era la peste. A cominciare dalla Peste Nera del 1348, la peste comparve spesso per quasi 400 anni. Nel 1562 la città di Londra cominciò a pubblicare settimanalmente dei bollettini di mortalità, nel tentativo di tenere aggiornata la corte reale, che stava considerando un trasferimento in campagna. All'inizio questi bollettini elencavano solo il luogo dei decessi e se si trattasse di morte per peste. Dal 1625 però furono estesi a comprendere anche le altre cause di decesso.


-----------------------------------------------
Tabella 1.1
Numero totale di decessi in Inghilterra

Anno        Decessi     Di cui per la peste
1592        25886       11503
1593        17844       10662
1603        37294       30561
1625        51758       35417
1636        23359       10400
-----------------------------------------------


Nel 1662 il commerciante inglese John Graunt pubblicò un libro dal titolo Natural and Political Observation Made upon the Bills of Mortality. La Tabella 1.1 è stata estratta da tale libro; elenca il numero annuale di decessi in Inghilterra e quanti di essi furono imputati alla peste, per cinque diversi anni di diffusione del contagio.

Graunt pensò di utilizzare i bollettini di mortalità per stimare la popolazione di Londra. Per stimare quella del 1660, ad esempio, Graunt fece delle ricerche in alcune parrocchie e sulle famiglie di vari quartieri, e scoprì che in media c'erano stati quell'anno circa 3 morti ogni 88 persòne. Dividendo per 3 si trova un decesso ogni 88/3 abitanti. Siccome i bollettini riportavano 13200 morti per Londra quell'anno, Graunt stimò che la popolazione complessiva di Londra fosse di circa

13200 x 88 / 3 = 387200
abitanti. Graunt impiegò questa stima per fare proiezioni sull'intera Inghilterra. Nel suo libro annotò che queste cifre potevano interessare ai governanti del paese, in quanto indicatori sia del numero di uomini che potevano essere coscritti, sia del numero di quelli che potevano essere tassati.

Graunt riuscì anche ad impiegare questi dati - ed un po' di intelligenti supposizioni su quali malattie sono mortali alle diverse età - per stimare le età al momento dei decessi. (Si ricordi che i bollettini elencavano solo luoghi e cause delle morti e non le età dei deceduti.) Utilizzò quindi queste informazioni per compilare delle tabelle che davano la percentuale di popolazione che muore alle diverse età. La Tabella 1.2 è una di queste tabelle di mortalità. Essa dice che su 100 nati, 36 morivano prima di arrivare a 6 anni, 24 morivano tra i 6 ed i 15 anni e così via.


-----------------------------------------------
Tabella 1.2
Tabella delle mortalità di John Graunt

(Le classi di età arrivano fino all'estremo
destro escluso. Ad esempio 0-6 significa tutte
le età dagli O ai 5 anni.)

Tempo di vita   Numero di decessi
                su 100 nascite
 0-6            36
 6-16           24
16-26           15
26-36            9
36-46            6
46-56            4
56-66            3
66-76            2
76 o più         1
-----------------------------------------------


La stima della speranza di vita era di grande interesse per coloro che si occupavano di rendite vitalizie. Queste ultime sono l'opposto delle assicurazioni sulla vita, poiché inizialmente si versa una somma come investimento e si ha poi diritto alla riscossione di pagamenti regolari per tutta la durata della vita rimanente.

Il lavoro di Graunt sulle tabelle di mortalità ispirò nel 1693 le ricerche di Edmund Halley. Halley, lo scopritore dell'omonima cometa (nonché la persona che permise, con incoraggiamenti e supportandola finanziariamente, la pubblicazione dei Principia Mathematica di Isaac Newton), usò le tabelle di mortalità per stabilire con che probabilità una persona di una data età sarebbe vissuta fino ad un qualunque numero di anni. Halley con la sua influenza riuscì a convincere le compagnie assicuratrici che i premi delle assicurazioni dovevano dipendere dall'età dell'assicurato.

Dopo Graunt e Halley, la raccolta di dati si accrebbe stabilmente per tutto il resto del diciassettesimo e durante il diciottesimo secolo. Anche Parigi nel 1667 iniziò a registrare i decessi e nel 1730 era ormai pratica comune in tutta Europa annotare anche le età in cui avvenivano.

Il termine statistica, che per tutto il diciottesimo secolo veniva usato come abbreviazione di scienza descrittiva dello stato, dal secolo successivo iniziò ad essere associato ai numeri. Entro il 1830 era diventato sinonimo di "scienza numerica" della società. Questo cambiamento di significato fu consentito dalla vasta disponibilità di registrazioni censuarie ed altri dati che, a partire dal 1800 circa, vennero raccolti sistematicamente dai governi dell'Europa occidentale e dagli Stati Uniti.

Durante il diciannovesimo secolo, anche se la teoria della probabilità era stata sviluppata da matematici come Jacob Bernoulli, Karl Friedrich Gauss e Pierre-Simon Laplace, il suo uso per studiare risultati statistici era praticamente inesistente, dato che molti statistici di quel tempo sostenevano l'autoevidenza dei dati. In particolare essi non erano tanto interessati a fare inferenza su singoli, quanto sulla società nel suo insieme, e per questo non studiavano campioni statistici, ma cercavano di ottenere dati sempre più completi dell'intera popolazione. L'inferenza probabilistica da un campione alla popolazione era quasi del tutto ignota alla statistica sociale di quel secolo.

Negli ultimi anni dell'800, la statistica iniziò ad occuparsi di inferire conclusioni a partire da dati numerici. Tra i fautori di questo approccio vanno ricordati Francis Galton, il cui lavoro di analisi sull'ereditarietà dell'intelligenza introdusse ciò che ora chiamiamo regressione e analisi della correlazione (si veda il Capitolo 9), e Karl Pearson. Pearson sviluppò il test del chi-quadro per verificare la bontà di un fit (si veda il Capitolo 11), e fu il primo direttore del Laboratorio Galton, fondato per donazione di Francis Galton nel 1904. Qui Pearson organizzò un programma di ricerca mirato allo sviluppo di nuovi metodi per la statistica e l'inferenza. Vi si accoglievano studenti avanzati di materie scientifiche ed industriali che venivano ad imparare le tecniche statistiche per poterle poi applicare nei loro campi. Uno dei primi ricercatori ospiti dell'istituto fu W. S. Gosset, un chimico di formazione, che dimostrò la sua devozione a Pearson pubblicando i propri lavori sotto lo pseudonimo di "Student". (Altri sostengono che Gosset non volesse pubblicare con il suo vero nome per timore che i suoi datori di lavoro alla fabbrica di birra Guinness non avrebbero approvato che uno dei loro chimici facesse ricerche di statistica.) Gosset è celebre per aver sviluppato la teoria del test t (si veda il Capitolo 8).

I due campi di maggiore importanza per la statistica applicata dell'inizio del ventesimo secolo erano la biologia delle popolazioni e l'agricoltura, e ciò era dovuto al personale interesse dello stesso Pearson e di altri nel laboratorio, come pure ai notevoli risultati dello scienziato inglese Ronald A. Fisher. La teoria dell'inferenza sviluppata da questi pionieri (tra i quali citiamo anche il figlio di Karl Pearson, Egon, ed il matematico di origini polacche Jerzy Neyman) era abbastanza generale da adattarsi ad un gran numero di problemi quantitativi e pratici. Per questo, dopo i primi anni del secolo, un numero rapidamente crescente di persone che si occupavano di scienze, affari e governo incominciarono a considerare la statistica come il principale strumento capace di fornire risposte quantitative a problemi scientifici e pratici (si veda la Tabella 1.3).


-----------------------------------------------
Tabella 1.3
L'evoluzione nelle definizioni di statistica

La statistica ha quindi per suo oggetto quello
di presentare una fedele rappresentazione di
uno stato in una determinata epoca.
                               (Quetelet, 1849)

Le statistiche sono gli unici strumenti tramite
i quali è possibile aprire una breccia nella
formidabile barriera di difficoltà che blocca
il cammino di chi ricerca la Scienza dell'uomo.
                                 (Galton, 1889)

La statistica può essere vista come (i) lo
studio delle popolazioni, (ii) lo studio della
variabilità, (iii) lo studio dei metodi di
riduzione dei dati.
                                 (Fisher, 1925)

La statistica è una disciplina scientifica che
si occupa della raccolta, analisi ed
interpretazione dei dati ottenuti da
osservazioni sperimentali. Questa materia ha
una struttura coerente che si basa sulla teoria
della probabilità e include molte tecniche
differenti che si affiancano alla ricerca e
allo sviluppo in tutti i campi della Scienza e
della Tecnologia.
                             (E. Pearson, 1936)

Statistica è il nome della scienza nonché arte
che si occupa delle inferenze non certe - che
impiega i numeri per dare risposte sulla natura
e sull'esperienza.
                                 (Weaver, 1952)

La statistica è stata riconosciuta nel
ventesimo secolo come lo strumento matematico
capace di analizzare i dati degli esperimenti e
quelli osservati in ogni contesto.
                                 (Porter, 1986)

La statistica è l'arte di apprendere dai dati.
                           (Questo libro, 1999)
-----------------------------------------------


Attualmente gli accenni alla statistica sono ovunque. In tutti i quotidiani e le riviste vi sono esempi di statistica descrittiva. L'inferenza statistica invece è divenuta indispensabile per la salute dell'uomo e la ricerca medica, per l'ingegneria e gli studi scientifici, per il marketing ed il controllo di qualità, per l'istruzione, per la contabilità, l'economia, le previsioni meteorologiche, per i sondaggi e le inchieste, per gli sport, le assicurazioni, il gioco e per tutti i tipi di ricerca che abbiano delle pretese di scientificità. La statistica è senza dubbio divenuta parte integrante della nostra eredità culturale.

| << |  <  |