• Copertina
  • Frontespizio
  • Copyright
  • Indice

    Pagina 6

    [ ...................................... 4.2 cluster sovrapposti ......................................................................................... 4.3 clustering sfocato...............................]
    [ ...................................... 4.3 clustering sfocato........................................................................................... 4.4 panoramica sulla letteratura ....................]
    [ ....................................... 5. clustering gerarchico ........................................................................................... 5.1 tipi di algoritmi ...........................]
    [ ......]

    Pagina 7

    [ ................ 5.4 speciali procedure di clustering ..................................................................... 5.4.1 clustering vincolato........................................................]
    [ .................................... 5.4.1 clustering vincolato............................................................................ 5.4.2 clustering adattabile ......................................]
    [ .................................... 5.4.2 clustering adattabile ........................................................................... 5.4.3 alberi di connessione ottimale ............................]
    [ .............. 5.5.3 il numero ottimale di cluster .............................................................. 5.6 panoramica sulla letteratura ...........................................................]

    Pagina 8

    [ ...................................... 8.2 clustering a blocchi........................................................................................ 8.2.1 clustering a blocchi non vincolato .............]
    [ .................................... 8.2.1 clustering a blocchi non vincolato ..................................................... 8.2.2 clustering parziale a blocchi delle matrici di dati ................]
    [ .................................... 8.2.2 clustering parziale a blocchi delle matrici di dati ............................. 8.2.3 partizioni incrociate .....................................................]
  • Prefazione
  • Introduzione

    Pagina 14

    [ ...iferiscono a metodi di classificazione (cluster analysis) e di ordinamento (ad esempio il multidimensional scaling). la stima e la susseguente inferenza statistica sono di secondaria importanza o addi...]
  • 1. Campionamento, tipi di dati

    Pagina 29

    [ ...rso vengono agglomerate, ad esempio, in cluster. il primo passo consiste nella selezione casuale di aggregati (ad esempio colonie di cellule), mentre nella seconda fase effettuiamo una selezione casua...]

    Pagina 39

    [ ......]

    Pagina 43

    [ ......]

    Pagina 44

    [ ...2. si effettui cluster analysis (capitolo 4-5) utilizzando i dati conosciuti. successivamente, si identifichi il gruppo al quale appartiene q e la media dei valori conosciuti della variabile i calcola...]

    Pagina 46

    [ ...pionamento). quasi tutti i metodi della cluster analysis (capitoli 4 e 5) e del non-metric multidimensional scaling (sottosezione 7.4.2.) sono di questo tipo. contrariamente alle opinioni di alcuni, l...]
  • 2. La matrice e la trasformazione dei dati
  • 3. Distanza, similarità, correlazione...

    Pagina 85

    [ ......]

    Pagina 141

    [ ......]
    [ ......]
  • 4. Classificazione non gerarchica

    Pagina 155

    [ ......]

    Pagina 156

    [ ......]
    [ ......]

    Pagina 157

    [ ...entali: 1) coesione interna dei gruppi (cluster), espressa mediante le distanze allinterno di essi, e 2) segregazione o separazione dei cluster, espressa mediante la distanza tra questi (gordon 1981)....]
    [ ...si, e 2) segregazione o separazione dei cluster, espressa mediante la distanza tra questi (gordon 1981). in un caso ideale, sia la coesione che la separazione risultano elevati (.ig. 4.2b), una situaz...]
    [ ......]
    [ ......]
    [ ...esti metodi prima di altre procedure di clustering, il che ...]

    Pagina 158

    [ ...tizione convenzionale di m oggetti in k cluster distinti. in letteratura, tali metodi vengono definiti come procedure di partizione classica, in opposizione al clustering sfocato (sezione 4.3). per de...]
    [ ......]
    [ ......]
    [ ......]

    Pagina 159

    [ ......]
    [ ......]
    [ ......]
    [ ...alle distanze tra gli oggetti e tutti i cluster (.ormula 3.106). se incontriamo oggetti la cui riallocazione diminuisce il valore di j, allora questi sono spostati al nuovo gruppo e torniamo al passo ...]

    Pagina 160

    [ ......]
    [ ......]
    [ ...mi di punti compatti, a forma di sfera (cluster convessi) nello spazio multidimensionale. cluster allungati potranno comunque essere distinti se presentano una separazione pronunciata. per osservare i...]
    [ ...nvessi) nello spazio multidimensionale. cluster allungati potranno comunque essere distinti se presentano una separazione pronunciata. per osservare il comportamento di questo metodo in condizioni con...]
    [ ......]
    [ ......]
    [ ......]

    Pagina 161

    [ ....igura 4.3. - i risultati del clustering per k medie per 6 disposizioni bidimensionali illustrative con m = 25. le iterazioni sono state svolte da 10 partizioni iniziali random per ciascun caso e i ri...]
    [ ...igurazione random con k = 2, b: quattro cluster ideali, c: classi compatte senza segregazione, d: tre nuvole allungate che mostrano bassa coesione e una chiara separazione, e: un piccolo gruppo compat...]
    [ ... arcuata, con apparente separazione dei cluster, f: una disposizione quasi completamente regolare, divisa con k = 2. le coordinate orizzontali e verticali dei gruppi sono riportate in tabella a3 nella...]

    Pagina 162

    [ ... k-1 classi tale che il seme del kesimo cluster sia loggetto con la distanza maggiore dal suo stesso centroide (hartigan, 1975). la tecnica di partizione multipla discussa nella sottosezione 4.1.3 uti...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ... un solo cluster; la sua estensione a k cluster porta alla seguente: ...]

    Pagina 163

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...richiedono il calcolo dei centroidi del cluster. la figura 4.4. illustra la performance del metodo per i dati desempio, utilizzando la distanza euclidea (scelta per consentire la comparazione con i ri...]
    [ ...no gli stessi di quelli ottenuti con il clustering delle k- medie, per cui non vengono ...]
    [ ......]
    [ ......]

    Pagina 164

    [ ......]
    [ ......]
    [ ...ioni che differiscono dai risultati del clustering delle k-medie (si veda la .ig. 4.3). ...]

    Pagina 165

    [ ......]
    [ ...over specificare a priori il numero dei cluster mediante unapplicazione ricorsiva dei metodi di partizione che richiede una scelta preventiva del numero di ricorsioni del metodo (ad esempio il cluster...]
    [ ......]
    [ ......]
    [ ...fino a raggiungere il numero massimo di cluster specificato a priori, kma . il nome di questa ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 166

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 167

    [ ..., 1988), come nel caso dellesempio d: i cluster allungati non possono essere riconosciuti da questa strategia di classificazione. il risultato della partizione multipla differisce dalle precedenti par...]
    [ ...itmo, successive suddivisioni di alcuni cluster hanno prodotto la partizione rifinita (si veda il capitolo 5 per i metodi gerarchici di divisione). naturalmente possiamo procedere nella direzione oppo...]
    [ ......]
    [ ......]
    [ ......]
    [ ...tale partizione in kma x-1 cluster viene migliorata mediante la riallocazione e ...]
    [ ......]
    [ ...ti vengono ridotti a poche centinaia di cluster, ciascuno rappresentabile con uno dei suoi oggetti in ulteriori analisi non solo di partizione ma anche qualunque procedura presente nei seguenti capit...]
    [ ......]
    [ ......]

    Pagina 168

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 169

    [ ...possono solo servire come punti-semi di cluster dando la falsa impressione che siano elementi isolati. un vero elemento isolato, che si trovi al di fuori di tutti i cluster, si trova in alto a sinistr...]
    [ ......]
    [ ...al primo. nel successivo passo, per tre cluster, troviamo loggetto che ha la distanza maggiore dal suo leader e lo designiamo leader del gruppo 3. lanalisi procede in modo simile fino al massimo valor...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...termedio come appartenente a entrambi i cluster. in tal modo, si crea una classificazione sovrapposta. siffatti metodi sono stati proposti per la prima volta da jardine e sibson (1968) col nome di clu...]
    [ ......]

    Pagina 170

    [ ......]
    [ ......]
    [ ...rametro k non va confuso col numero dei cluster richiesti nel metodo delle k-medie a volte sembra quasi che lalfabeto non fornisca lettere a sufficienza, visto che la letteratura insiste nellusare la...]
    [ ......]
    [ ......]
    [ ......]
    [ ....igura 4.7. - illustrazione di un clustering bk di jardine-sibson con un grafo. ciascuno dei tre sotto-grafi completi costituisce un cluster, due di essi si sovrappongono al livello di k = 3, ossia co...]
    [ ...tre sotto-grafi completi costituisce un cluster, due di essi si sovrappongono al livello di k = 3, ossia con massimo due oggetti. ...]

    Pagina 171

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 172

    [ ......]
    [ ......]
    [ ......]
    [ ...one 4.4.1. 2. i pesi di appartenenza ai cluster iniziali vengono calcolati per ciascun oggetto j in modo da essere proporzionali alle distanze dal centroide, obbedendo alla condizione (4.5). 3. i nuov...]
    [ ...se dj = 0, ossia il centroide del cluster c coincide con loggetto j, allora c ...]

    Pagina 173

    [ ......]
    [ ......]
    [ ...ssico, ha pesi quasi identici per i due cluster (in grassetto nella tabella), a indicare la sua posizione di transizione. nel valutare classificazioni sfocate, la semplice ispezione dei pesi di appart...]
    [ ......]
    [ ...icare per esempio il numero ottimale di cluster. prima tra tutte, va menzionato il coefficiente di partizione di bezdek (1974, 1981). tabella 4.1. - risultati del clustering sfocato delle c medie (fuz...]
    [ ...74, 1981). tabella 4.1. - risultati del clustering sfocato delle c medie (fuzzy c-means) per i punti della .igura 4.3c con k = 2 e f = 1.5. ...]
    [ ... 13 14 15 16 17 18 19 20 21 22 23 24 25 cluster 1 .9839 .9819 .9973 .9948 .9901 .9556 .9940 .9979 .9536 .9810 .9723 .9915 .9676 .5050 .0804 .0547 .1951 .0460 .0023 .0003 .0173 .0012 .0018 .0190 .0104 ...]
    [ ...023 .0003 .0173 .0012 .0018 .0190 .0104 cluster 2 .0161 .0181 .0027 .0052 .0099 .0444 .0060 .0021 .0464 .0190 .0277 .0085 .0324 .4950 .9196 .9453 .8049 .9540 .9977 .9997 .9827 .9988 .9982 .9810 .9896 ...]

    Pagina 174

    [ ...lidentificazione del numero ottimale di cluster nei dati. per il caso della .igura 4.3b con 4 cluster lampanti, conduciamo un clustering sfocato di c medie con k = 2, 3, 4, 5 e 6, aumentando continuam...]
    [ ...ti. per il caso della .igura 4.3b con 4 cluster lampanti, conduciamo un clustering sfocato di c medie con k = 2, 3, 4, 5 e 6, aumentando continuamente il valore di f (f = 1.2; 1.5; 2.0; 2.5; 3.0). la ...]
    [ ...b con 4 cluster lampanti, conduciamo un clustering sfocato di c medie con k = 2, 3, 4, 5 e 6, aumentando continuamente il valore di f (f = 1.2; 1.5; 2.0; 2.5; 3.0). la relazione tra il numero di clust...]
    [ ......]
    [ ......]

    Pagina 175

    [ ...partizione (4.14) rispetto la numero di cluster per valori diversi di f (fuzziness) nella classificazione sfocata dei punti della .igura 4.3b. ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...i sulla diagonale possono illustrare un clustering sfocato per due gruppi; anche i punti nel clustering sfocato della tabella 4.1 si trovano su una diagonale, in maggioranza sui punti finali, laddove ...]
    [ ...ocato per due gruppi; anche i punti nel clustering sfocato della tabella 4.1 si trovano su una diagonale, in maggioranza sui punti finali, laddove il ...]

    Pagina 176

    [ ......]
    [ ......]
    [ ......]
    [ ...- diagramma triangolare che illustra il clustering sfocato di tre specie di iris (tabella a2) con due valori del coefficiente di confusione (fuzziness), a: f = 1.25; b: f = 2.5. ...]

    Pagina 177

    [ ...atici delle partizioni. altri libri sul clustering sono meno utili da questo punto di vista, in quanto danno risalto ai metodi gerarchici (ad esempio clifford e stephenson, 1975 e gordon, 1981). per q...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ... tabella 4.2. tabella 4.2. - opzioni di clustering non gerarchico offerte da alcuni programmi statistici. ...]
    [ ... dal coefficiente suddivisione multipla clustering rapido procedura sfocata delle c medie ...]

    Pagina 178

    [ ...in questo capitolo riconoscano soltanto cluster sferici, mentre le nuvole di punti allungate non vengono identificate nello spazio multidimensionale. puoi suggerire una procedura che identifichi i clu...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 179

    [ ......]
    [ ......]
    [ ......]
    [ ...icorso ad altri tipi di metodi, come il clustering gerarchico e l'ordinamento, allo stesso tempo. gli ordinamenti, ad esempio, ti aiuteranno a visualizzare la forma di uno sciame di punti multidimensi...]
    [ ......]

    Pagina 180

    [ ......]
    [ ......]
    [ ... differivano, nonostante non vi fossero cluster reali nei dati. d: ho la sensazione che la tua procedura di partizione indipendente dal coefficiente superi le altre due. comunque... r: scusami se ti i...]

    Pagina 181

    [ ......]
  • 5. Clustering gerarchico

    Pagina 183

    [ ...5. clustering gerarchico ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...pitolo, la predefinizione del numero di cluster ...]

    Pagina 184

    [ ......]
    [ ...tati fuorvianti (artefatti) mediante il clustering (cfr. everitt, 1980 e gli esempi che seguono), tali che sia inevitabile il loro controllo con analisi addizionali attraverso metodi di ordinamento (c...]
    [ ......]
    [ ...i in modo da esprimere le relazioni tra cluster (distanza, somiglianza) secondo un criterio numerico: si tratta dellaltezza dei vertici interni (livello gerarchico) misurata sullasse verticale. laltez...]

    Pagina 185

    [ ...clustering gerarchico 165 ...]
    [ ......]
    [ ......]

    Pagina 186

    [ ......]
    [ ......]
    [ ...rativi considerano ogni oggetto come un cluster separato ...]

    Pagina 187

    [ ...clustering gerarchico 167 ...]
    [ ......]
    [ ......]
    [ ......]
    [ ...oggetti vengono raggruppati in un unico cluster irrilevante. la strategia dei metodi divisivi procede nella maniera opposta: il processo di clustering inizia con tutti gli oggetti in un singolo cluste...]
    [ ...e nella maniera opposta: il processo di clustering inizia con tutti gli oggetti in un singolo cluster, che nel primo passaggio viene diviso in due parti. ognuna di esse viene ulteriormente suddivisa n...]
    [ ......]
    [ ......]
    [ ......]
    [ ...ingola variabile, tale che i risultanti cluster saranno identici riguardo quella variabile. nei metodi politetici, le decisioni vengono sempre influenzate simultaneamente da molte variabili, possibilm...]

    Pagina 188

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ... lentropia o la somiglianza media entro cluster (si ricordi la sezione 3.7) (ossia, qualche statistica), mentre i metodi non possono essere interpretati in termini geometrici. prima di esaminare i sin...]
    [ ......]
    [ ......]

    Pagina 189

    [ ...clustering gerarchico 169 ...]
    [ ......]
    [ ...rica secondaria contenente i criteri di clustering calcolati in base a d ...]
    [ ...cluster e tra cluster (sottosezione 5.2.4): la seconda matrice simmetrica contiene questi rapporti per tutte le coppie possibili di cluster. anche il numero di fusioni (unioni) eseguite in ciascun cic...]
    [ ...cluster e tra cluster (sottosezione 5.2.4): la seconda matrice simmetrica contiene questi rapporti per tutte le coppie possibili di cluster. anche il numero di fusioni (unioni) eseguite in ciascun cic...]
    [ ...pporti per tutte le coppie possibili di cluster. anche il numero di fusioni (unioni) eseguite in ciascun ciclo di clustering merita la nostra attenzione. si potrebbe dire che, per ciascun passo di cal...]
    [ ......]
    [ ...ossima di oggetti, e successivamente di cluster, debba essere identificata e fusa in un solo ...]

    Pagina 190

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ... 1989a). si considerino gli oggetti o i cluster implicati in un vincolo come vertici di un grafo di vincolo g. i due vertici sono collegati mediante una connessione se la distanza tra i due oggetti (o...]
    [ ......]
    [ ...uppa tutti gli oggetti uniti in un solo cluster (caso a) oppure diversi cluster sono formati da fusioni simultanee, in cui ciascun cluster rappresenta un sottografo isolato (caso b). negli altri due c...]
    [ ......]

    Pagina 191

    [ ...clustering gerarchico 171 ...]
    [ ......]
    [ ...importanti e diffusamente utilizzate di clustering agglomerativo. ...]
    [ ......]
    [ ..., vengono ricalcolate le distanze tra i cluster recentemente ottenuti e tutti gli altri cluster e oggetti, mentre le righe e le colonne non necessarie della matrice di distanza vengono cancellate (dop...]
    [ ...recentemente ottenuti e tutti gli altri cluster e oggetti, mentre le righe e le colonne non necessarie della matrice di distanza vengono cancellate (dopo il raggruppamento di due oggetti, una riga e u...]
    [ ...stanza al quadrato, tabella 5.1) tra il cluster recentemente ottenuto fondendo i cluster (oggetti) i e j e un altro cluster (o oggetto) h. dhi, dhj e dij sono le rispettive distanze delle coppie di cl...]
    [ ...luster recentemente ottenuto fondendo i cluster (oggetti) i e j e un altro cluster (o oggetto) h. dhi, dhj e dij sono le rispettive distanze delle coppie di cluster (o oggetti). i parametri , e cara...]
    [ ...do i cluster (oggetti) i e j e un altro cluster (o oggetto) h. dhi, dhj e dij sono le rispettive distanze delle coppie di cluster (o oggetti). i parametri , e caratterizzano il particolare metodo di...]
    [ ... le rispettive distanze delle coppie di cluster (o oggetti). i parametri , e caratterizzano il particolare metodo di clustering; sono costanti oppure vengono calcolati dal numero di oggetti preceden...]

    Pagina 192

    [ ...j sono i numeri di oggetti presenti nei cluster i e j appena fusi. ...]
    [ ......]
    [ ......]
    [ ...ottolinea fortemente la separazione dei cluster: le allungate nuvole di punti vengono riconosciute, ma i cluster connessi mediante oggetti intermedi non possono essere rilevati. la coesione interna de...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 193

    [ ...clustering gerarchico 173 ...]
    [ ...ustrazione geometrica dei sei metodi di clustering agglomerativo che ottimizzano la distanza (secondo podani, 1994). ...]
    [ ......]
    [ ...ametro (distanza massima allinterno del cluster) del nuovo cluster. in questo caso, la formazione di nuovi cluster simili per dimensioni viene favorita nel corso dellanalisi, un effetto opposto al con...]
    [ ...ssima allinterno del cluster) del nuovo cluster. in questo caso, la formazione di nuovi cluster simili per dimensioni viene favorita nel corso dellanalisi, un effetto opposto al concatenamento del leg...]
    [ ... in questo caso, la formazione di nuovi cluster simili per dimensioni viene favorita nel corso dellanalisi, un effetto opposto al concatenamento del legame singolo. come risultato, la forma dei dendro...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 194

    [ ... punti della .ig. 4.3 valutati mediante clustering col legame semplice. la matrice iniziale contiene distanze euclidee tra punti. ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...nsieme nella .ig. 4.3e, mostrando che i cluster allungati possono essere facilmente divisi nellanalisi col legame singolo. per riassumere, questa strategia ha fornito risultati accettabili solo per du...]

    Pagina 195

    [ ...clustering gerarchico 175 ...]
    [ ....igura 5.7. - clustering col legame completo dei punti illustrati nella .ig. 4.3. ...]
    [ ......]
    [ ...ica di tutti i valori di distanza tra i cluster (tratti della linea nella .ig. 5.5c). durante il clustering, per il ricalcolo delle distanze si deve considerare il numero di oggetti precedentemente fu...]
    [ ...ella linea nella .ig. 5.5c). durante il clustering, per il ricalcolo delle distanze si deve considerare il numero di oggetti precedentemente fusi in ogni cluster (cfr. tabella 5.1), in netto contrasto...]
    [ ...di oggetti precedentemente fusi in ogni cluster (cfr. tabella 5.1), in netto contrasto con le analisi col legame completo e col legame singolo, che non sono numericamente influenzate dalle dimensioni ...]
    [ ......]
    [ ...nte esempio, che illustra i calcoli del clustering della media fra gruppi ...]

    Pagina 196

    [ ......]
    [ ...per primi. le distanze tra questo nuovo cluster, (3,4) con gli oggetti 1, 2 e 5 verranno ottenute mediante la media delle loro distanze con gli oggetti 3 e 4 (cfr. la formula di lance-williams): ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 197

    [ ...clustering gerarchico 177 ...]
    [ ......]
    [ ......]
    [ ...b quasi privo di significato, i quattro cluster sono ben separati come nelle .igure 5.6d e 5.7b: un risultato atteso. vale la pena mostrare il dendrogramma per i due cluster adiacenti dellesempio c (....]
    [ ......]
    [ ...ltati non concordano al livello dei due cluster. le tre nuvole di punti di forma allungata del caso d (.ig. 5.8d) illustrano abbastanza bene come un gruppo a prima vista giudicato unitario (quello cen...]
    [ ......]
    [ ......]
    [ ......]
    [ ....orse non sorprende che i risultati del clustering per il caso f siano fuorvianti tanto quanto quelli ottenuti mediante lanalisi col legame completo. metodo della media semplice (wpgma, mcquitty, 1967...]

    Pagina 198

    [ ......]
    [ ......]
    [ ......]
    [ ...alcoliamo prima la distanza media tra i cluster i e h (per sei linee a punti nella figura), e poi la distanza media tra i cluster j e h (per nove linee continue nella figura). la media aritmetica di q...]
    [ ......]
    [ ...ath e sokal (1973) sottolineano come il clustering wpgma sia una buona scelta quando esiste un motivo noto a priori per eliminare le differenze delle dimensioni tra i gruppi risultanti. ad esempio, in...]
    [ ......]
    [ ......]
    [ ......]
    [ ...one combinatoria di questa strategia di clustering con la matrice i...]

    Pagina 199

    [ ...clustering gerarchico 179 ...]
    [ ..., il numero di oggetti presenti nei due cluster in questione viene trascurato, come illustrato nella .ig. 5.5f. si supponga che siano stati raggruppati i cluster i e j con rispettivamente 2 e 4 oggett...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 200

    [ ...o di qualunque particolare strategia di clustering applicata da sola. gli autori (williams, 1976) hanno scoperto empiricamente che il valore di = 0,25 in molti casi appare ottimale. se si cambiano i ...]
    [ ......]
    [ ......]
    [ ...equazioni 3.105-3.115). il criterio del clustering include lottimizzazione ...]

    Pagina 201

    [ ...clustering gerarchico 181 ...]
    [ ......]
    [ ......]
    [ ......]
    [ ...oppie possibili di oggetti (ad esempio, cluster con due elementi), indicate come yij per gli oggetti i e j. se si fondono i e j in un passaggio del clustering, si utilizza lequazione ricorsiva (jambu,...]
    [ ......]
    [ ...ulterebbe dalla fusione di questo nuovo cluster con un terzo cluster h: ...]
    [ ...ne di questo nuovo cluster con un terzo cluster h: ...]
    [ ......]
    [ ......]

    Pagina 202

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...ntare del numero di oggetti inclusi nei cluster). ovviamente, esistono delle differenze nei livelli, ma diventerebbero evidenti solo a seguito di un confronto completo tra i risultati. nellesempio c, ...]
    [ ...o tra i risultati. nellesempio c, i due cluster principali vengono riconosciuti in maniera tale da far comparire la separazione tra gli oggetti 13 e 14. per il caso d, il metodo ha prodotto i risultat...]
    [ ...risultare anche da configurazioni senza cluster. i valori y mostrati per i dendrogrammi nella .ig. 5.11 possono apparire contraddittori rispetto ai risultati numerici del clustering: anche minimizzand...]
    [ ......]

    Pagina 203

    [ ...clustering gerarchico 183 ...]
    [ ....igura 5.11. - risultati del clustering gerarchico per i pattern di punti illustrati nella .ig. 4.3 minimizzando laumento della somma di quadrati allinterno dei cluster. ...]
    [ ... della somma di quadrati allinterno dei cluster. ...]

    Pagina 204

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...clustering di ottimizzazione globale tutti i metodi gerarchici che sono stati introdotti hanno in comune unimportante caratteristica: per la fusione a coppie di oggetti (e in seguito, di cluster) adot...]
    [ ......]

    Pagina 205

    [ ...clustering gerarchico 185 ...]
    [ ......]
    [ ...porto fra le dissomiglianze medie tra i cluster e nei cluster (equazioni 4.2-4.4). per ricordarne i vantaggi nel clustering non gerarchico: 1) la coesione e la segregazione dei cluster vengono conside...]
    [ ...issomiglianze medie tra i cluster e nei cluster (equazioni 4.2-4.4). per ricordarne i vantaggi nel clustering non gerarchico: 1) la coesione e la segregazione dei cluster vengono considerate simultane...]
    [ ...4.2-4.4). per ricordarne i vantaggi nel clustering non gerarchico: 1) la coesione e la segregazione dei cluster vengono considerate simultaneamente, 2) essendo un rapporto adimensionale, classificazio...]
    [ ......]
    [ ...metrica. questi vantaggi sono reali nel clustering gerarchico che adatta il seguente algoritmo di classificazione (podani, 1989a, cfr. anche lo schema nella .ig. 5.3c): 1. dalla matrice di dati x si o...]
    [ ... che risulterebbe se gli oggetti (poi i cluster) i e j fossero raggruppati (.ormula 4.4). si calcoli g per tutte le coppie possibili, e le si scriva in una seconda matrice simmetrica, indicata come g ...]
    [ ......]
    [ ......]

    Pagina 206

    [ ...del rapporto delle distanze medie tra i cluster e allinterno dei cluster mediante il clustering gerarchico per i pattern di punti della .ig. 4.3. ...]
    [ ...ze medie tra i cluster e allinterno dei cluster mediante il clustering gerarchico per i pattern di punti della .ig. 4.3. ...]
    [ ...er e allinterno dei cluster mediante il clustering gerarchico per i pattern di punti della .ig. 4.3. ...]
    [ ......]
    [ ...seguito da un brusco salto. anche i due cluster nel caso c sono separati (g<0,5): questi sono identici rispetto a quelli ottenuti mediante clustering non gerarchico (.ig. 4.4c). per i casi d ed e, il ...]
    [ ......]
    [ ......]

    Pagina 207

    [ ...clustering gerarchico 187 ...]
    [ ......]
    [ ...elle otu soltanto in parte: ci sono tre cluster, ognuno dei quali include le otu di una singola specie, ma esiste un quarto cluster in cui si ritrovano gli individui delle specie 2 e 3 (.ig. 5.13). si...]
    [ ...una singola specie, ma esiste un quarto cluster in cui si ritrovano gli individui delle specie 2 e 3 (.ig. 5.13). si tratta di un risultato in buon accordo con la classificazione sfocata in tre cluste...]
    [ ......]
    [ ......]

    Pagina 208

    [ ......]
    [ ......]
    [ ...rmini: la somma di quadrati per i nuovi cluster deve diminuire quanto possibile dopo la divisione. secondo la proposta originale, tutte le possibili divisioni devono essere esaminate per trovare il va...]
    [ ...enti. un gruppo politetico di metodi di clustering implica la classificazione indiretta; prima si ottiene un ordinamento di oggetti e successivamente si utilizzano i punti dellordinamento per ottenere...]

    Pagina 209

    [ ...clustering gerarchico 189 ...]
    [ ...del centroide costituiranno i primi due cluster principali, che possono essere migliorati attraverso la riallocazione degli oggetti che si trovano vicino al centroide. i cluster vengono quindi ulterio...]
    [ ......]
    [ ...ilizzare gli assi di ordinamento per il clustering divisivo precede la prima descrizione di twinspan. lefkovitch (1976) ha sottolineato come si possa utilizzare un ordinamento basato sulle coordinate ...]
    [ ......]
    [ ......]
    [ ......]
    [ ...della somma dei quadrati allinterno dei cluster. a voler ...]
    [ ......]

    Pagina 210

    [ ......]

    Pagina 211

    [ ...clustering gerarchico 191 ...]
    [ ......]
    [ ......]
    [ ......]

    Pagina 212

    [ ...speciali procedure di clustering questa sezione introduce algoritmi di clustering alternativi che non si adattano al quadro metodologico summenzionato, ma che possono comunque essere utilizzati per ge...]
    [ ...g questa sezione introduce algoritmi di clustering alternativi che non si adattano al quadro metodologico summenzionato, ma che possono comunque essere utilizzati per generare classificazioni gerarchi...]
    [ ......]
    [ ......]
    [ ...esso di classificazione, consentendo ai cluster di non riflettere fedelmente le distanze concettuali inter-oggetto. invece, le distanze o le vicinanze sul terreno saranno decisive, come fatto dalle pr...]
    [ ... essere consentito di unirsi durante il clustering per analizzare anche le informazioni stratigrafiche. vale a dire, la sequenza di strati non viene rappresentata direttamente nei dati, ma ne influenz...]
    [ ...o capitolo possono servire lo scopo del clustering vincolato, a patto che lalgoritmo sia appropriatamente modificato. per comprendere le modifiche necessarie, introduciamo un grafo di adiacenza i cui ...]

    Pagina 213

    [ ...clustering gerarchico 193 ...]
    [ ...classificazioni vincolate anche tramite clustering divisivo, ma in questo caso gli oggetti devono essere ordinati linearmente (nello spazio o nel tempo) mediante il principio vincolante. lobiettivo co...]
    [ ......]
    [ ......]
    [ ......]
    [ ...llocazioni, utilizzando un algoritmo di clustering non gerarchico vincolato (birks e gordon, 1985). ...]
    [ ......]
    [ ......]
    [ ...ersi aspetti dei dati (diverse forme di cluster, ad esempio), per cui analisi poco attente potrebbero portare a false interpretazioni. una classificazione simultanea mediante vari metodi e la successi...]
    [ ...diversi tentativi di definire schemi di clustering adattabile, merita particolare attenzione il metodo proposto da rohlf (1970). lutente specifica inizialmente una data forma di nuvola di punti che ce...]

    Pagina 214

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ... r sufficientemente ampi avremo un solo cluster). ulteriori dettagli sul clustering adattabile sono in sneath e sokal (1973: 212-214) e gordon (1981: 137-139). come nota gordon, prima o poi avremo lop...]
    [ ......]
    [ ...presentando una separazione rispetto al clustering interamente automatico. ...]
    [ ......]

    Pagina 215

    [ ...clustering gerarchico 195 ...]
    [ ......]
    [ ...ficare come la loro rimozione produca i cluster principali della .ig. 5.6a. tuttavia, al contrario dellalbero di connessione ottimale, il dendrogramma non mostra la coppia di oggetti di fatto responsa...]
    [ ......]

    Pagina 216

    [ ......]

    Pagina 217

    [ ...clustering gerarchico 197 ...]
    [ ......]

    Pagina 218

    [ ......]
    [ ......]

    Pagina 219

    [ ...clustering gerarchico 199 ...]
    [ ......]
    [ ......]
    [ ......]
    [ ...il legame completo coph = 0,830). per i cluster adiacenti (esempio c), la sequenza di metodi cambia con il legame con la media fra gruppi, il completo e il singolo e i coefficienti sono di molto infer...]
    [ ......]

    Pagina 221

    [ ...clustering gerarchico 201 ...]
    [ ......]
    [ ... struttura in gruppi o lesistenza di un cluster implica la misurazione dello scarto rispetto a un modello nullo: ad esempio, la distribuzione poisson o unimodale di punti nello spazio multidimensional...]
    [ ...il numero ottimale di cluster la maggior parte dei metodi di partizione richiede di specificare a priori il numero di cluster, per cui questi metodi non devono essere utilizzati a meno che il ricercat...]
    [ ...de di specificare a priori il numero di cluster, per cui questi metodi non devono essere utilizzati a meno che il ricercatore non abbia acquisito unesperienza preliminare mediante altre analisi dei da...]
    [ ......]

    Pagina 222

    [ ...teri nel rivelare il numero ottimale di cluster. hanno scoperto che la formula suggerita da calinski e harabasz (1974) ha ottenuto il risultato migliore. sia ssqt la somma totale di quadrati dellinsie...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 223

    [ ...clustering gerarchico 203 ...]
    [ ......]
    [ ...la matrice della somma dei quadrati nei cluster, il criterio viene espresso utilizzando gli elementi della diagonale ...]
    [ ...mento dei valori di k nei risultati del clustering col legame completo (.ig. 5.7) per i dati della .igura 4.3. il numero di cluster da considerare oscilla tra 2 e 12: un ulteriore perfezionamento dell...]
    [ ...r i dati della .igura 4.3. il numero di cluster da considerare oscilla tra 2 e 12: un ulteriore perfezionamento della classificazione sarebbe ben poco significativo (cfr. la .ig. 5.17a). per la distri...]
    [ ......]
    [ ......]
    [ ...ualunque ulteriore partizione di questi cluster ha effetti dannosi per ...]
    [ ... 5.17. - ricerca del numero ottimale di cluster nei dendrogrammi col legame completo degli insiemi di dati di esempio mostrati nella .igura 4.3. a: indice di calinski-harabasz; b: approccio ordinale s...]

    Pagina 224

    [ ...possiede significato. in molti studi di clustering, tuttavia, la misura di dissomiglianza applicata non ha niente a che fare con la somma dei quadrati, di modo che non sarebbe opportuno usare lindice ...]
    [ ......]
    [ ...istanze o dissomiglianze allinterno dei cluster e tra i cluster per, diciamo, p cluster. il calcolo di questo contributo varia con il coefficiente di dissomiglianza (cfr. tabella 5.3). ad esempio, nel...]
    [ ...iglianze allinterno dei cluster e tra i cluster per, diciamo, p cluster. il calcolo di questo contributo varia con il coefficiente di dissomiglianza (cfr. tabella 5.3). ad esempio, nel caso della dist...]
    [ ...cluster e tra i cluster per, diciamo, p cluster. il calcolo di questo contributo varia con il coefficiente di dissomiglianza (cfr. tabella 5.3). ad esempio, nel caso della distanza euclidea, il contri...]
    [ ...uti sono distribuiti allinterno e tra i cluster. la variabile i spiega perfettamente la partizione se tutti i valori gijk allinterno del cluster sono inferiori ai contributi tra cluster; ossia, sulla ...]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 225

    [ ...clustering gerarchico 205 ...]

    Pagina 226

    [ ......]
    [ ......]

    Pagina 227

    [ ...clustering gerarchico 207 ...]
    [ ...atteristiche di base delle procedure di clustering gerarchico sono valutate in dettaglio da diday e simon (1976), dubes e jain (1976, 1979), murtagh (1983), day e edelsbrunner (1984), gordon (1987) e ...]
    [ ...ficatoria dei dati. se integrati con la cluster analysis, questi campi possono essere denominati tassonomia numerica e sintassonomia numerica, dove laggettivo si riferisce al fatto che anche altri tip...]
    [ ... alla cladistica non renda i metodi del clustering gerarchico completamente superati in sistematica, specialmente in studi al disotto del livello delle specie. torneremo a occuparci di questi problemi...]

    Pagina 228

    [ ......]
    [ ...programmi informatici i metodi del clustering gerarchico si trovano in diversi pacchetti informatici, per quanto la scelta tra le opzioni sia molto ridotta, di solito ristretta a pochi algoritmi, quel...]
    [ ...tabella 5.4. - metodi principali di clustering gerarchico in alcuni pacchetti informatici sviluppati per i pc. ...]
    [ ... correlazione cofenetica n. ottimale di cluster grafica per il dendrogramma grafica per lalbero di connessione ottimale ...]

    Pagina 229

    [ ...clustering gerarchico 209 ...]

    Pagina 230

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ...i carichi di applicazioni acritiche del clustering. nel complesso e artistico procedimento della classificazione, altri metodi non progettati esplicitamente per rilevare la struttura in gruppi di dati...]
    [ ...to importanti degli stessi algoritmi di clustering. questi strumenti aggiuntivi del classificatore saranno introdotti nei prossimi capitoli. d: le differenze tra i risultati alternativi dei diversi me...]
    [ ...i campione e hai controllato solo se il clustering gerarchico sia adatto a rilevare alcune strutture in gruppi non gerarchiche di dati? non avverti una contraddizione in questo? r: di nuovo una giusta...]
    [ ......]
    [ ......]

    Pagina 231

    [ ...clustering gerarchico 211 ...]
    [ ......]
    [ ... problemi di calcolo, come nel caso del clustering non gerarchico. gli algoritmi che seguono la strategia della fig. 5.3b sembrano i meno dispendiosi, per quanto riguarda la memoria del computer, ma l...]
    [ ......]

    Pagina 232

    [ ......]
    [ ......]
    [ ...ioni. un'ultima nota: non utilizzare il clustering gerarchico senza ordinamenti supplementari! d: mi chiedo quante maniere ci sono per classificare m oggetti gerarchicamente. posso solo immaginare che...]
    [ ......]
    [ ... eseguita a ogni passo dell'analisi del clustering agglomerativo. per cui, nel ...]
    [ ......]

    Pagina 233

    [ ...clustering gerarchico 213 ...]
    [ ......]
  • 6. Cladistica

    Pagina 235

    [ ......]

    Pagina 240

    [ ......]
    [ ......]
    [ ......]

    Pagina 242

    [ ......]

    Pagina 243

    [ ......]
    [ ......]
    [ ......]

    Pagina 262

    [ ......]
    [ ......]

    Pagina 263

    [ ......]
  • 7. Ordinamento

    Pagina 321

    [ ...breviazione ca, spesso impiegata per la cluster analysis ...]
    [ ... la distinzione rispetto allanalisi dei cluster. ...]

    Pagina 357

    [ ......]

    Pagina 368

    [ ......]

    Pagina 373

    [ ......]

    Pagina 374

    [ ......]
  • 8. Riarrangiamento della matrice

    Pagina 383

    [ ......]

    Pagina 384

    [ ......]

    Pagina 385

    [ ......]
    [ ......]

    Pagina 386

    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 387

    [ ......]

    Pagina 388

    [ ...trici di dati riarrangiati prodotti dal clustering a blocchi (8.2.3) o dalla seriazione a blocchi (8.2.4). per i cluster a blocchi, la procedura segue la logica del jackknife: il criterio della compat...]
    [ ......]
    [ ......]
    [ ...allo stesso modo sono classificabili in cluster significativi, la matrice riarrangiata rifletterebbe questi raggruppamenti. un simile riarrangiamento ha un grande valore interpretativo: gruppi di vari...]

    Pagina 389

    [ ...ghe e le colonne, visibile solo dopo il clustering a blocchi (b). per maggiore chiarezza, gli zero sono stati sostituiti da puntini. ...]
    [ ......]
    [ ......]

    Pagina 390

    [ ....igura 8.3. - clustering a blocchi della versione presenza/assenza della tabella a1, con gruppi ottenuti mediante custering col legame completo da distanze euclidee. la figura illustra la presenza di ...]
    [ ...izzazione (gordon, 1981). le analisi di cluster di colonne o righe separate non possono raggiungere questobiettivo, per cui sono necessari dei metodi non ancora introdotti in questo libro. questo para...]
    [ ...oli sulla classificazione. i metodi del clustering a blocchi sono suddivisi in quattro gruppi principali in base ai vincoli applicati durante la classificazione di righe e colonne: ...]
    [ ......]
    [ ......]
    [ ...ndere forme irregolari (.ig. 8.4a). nel clustering a blocchi parziale, le righe sono classificate in p classi, ...]

    Pagina 391

    [ ....igura 8.4. - obiettivi principali del clustering a blocchi. a: blocchi senza costrizioni, b: clustering a blocchi parziale, c: partizione incrociata, caso generale (p q), d: seriazione a blocchi (p ...]
    [ ......]
    [ ...clustering a blocchi non vincolato hartigan (1975) elenca diversi algoritmi sviluppati per larrangiamento in blocchi non vincolati. una tecnica simile, la strategia di unione a due vie (two-way joinin...]

    Pagina 392

    [ ......]

    Pagina 393

    [ ...clustering parziale a blocchi delle matrici di dati gordon (1981) cita diverse procedure designate a questo scopo, con particolare attenzione nei confronti della procedura divisiva di hartigan (1972)....]

    Pagina 394

    [ ......]

    Pagina 395

    [ ....igura 8.6. - clustering a blocchi ottimale della versione presenza/assenza della tabella a1 sulla base delle statistiche 2 e j (a) ed entropia, h (b) dopo 100 interazioni come ad esempio p = q = 2. c...]

    Pagina 396

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 397

    [ ......]

    Pagina 398

    [ ......]

    Pagina 399

    [ ......]
    [ ......]

    Pagina 400

    [ ......]

    Pagina 404

    [ ......]

    Pagina 406

    [ ...nche le matrici ombreggiate, sia per il clustering a blocchi che per la seriazione (le figure in questo capitolo sono state preparate con questo programma). statistica utilizza diversi colori applicat...]

    Pagina 407

    [ ... ricerca dei blocchi (algoritmo leader) clustering a blocchi per ricollocazioni iterative analisi di concentramento seriazione iterativa dalle matrici di distanza e di dati ...]

    Pagina 409

    [ ......]
  • 9. Valutazione comparativa dei risultati

    Pagina 411

    [ ......]
    [ ... funzione di somiglianza, lalgoritmo di clustering o lordinamento sono tutti a scelta del ricercatore, e lelenco potrebbe continuare. per accertarsi che queste decisioni non influenzino le nostre conc...]

    Pagina 418

    [ ......]

    Pagina 420

    [ .... le partizioni incrociate ben note nel clustering a blocchi vengono interpretate a questo punto come tabelle di contingenza, nelle quali le righe rappresentano le classi in p e le colonne corrispondo...]
    [ ...s e t sono rispettivamente il numero di cluster in p e q. il valore della cella ij in questa tabella corrisponde al numero di oggetti che appartengono alla classe i in p, e alla classe j in q. ad esem...]

    Pagina 421

    [ ......]

    Pagina 423

    [ ......]

    Pagina 425

    [ ......]
    [ ......]

    Pagina 426

    [ ......]
    [ ...chica, c: divergenza di appartenenza al cluster (=5), d: divergenza di appartenenza alla partizione (=5), e: divergenza di appartenenza al sotto albero (=4). ...]

    Pagina 427

    [ ......]
    [ ......]
    [ ...esti due oggetti appartengono a diversi cluster (.ig. 9.6d). per quanto la divergenza di appartenenza alla partizione sia topologica, le informazioni concernenti la sequenza di livelli gerarchici nell...]

    Pagina 428

    [ ......]
    [ ......]

    Pagina 430

    [ ... di questi produce una partizione a due cluster di oggetti1. un ramo interno di d1 corrisponde a un ramo interno in d2, qualora la loro rimozione produca partizioni identiche (per i dendrogrammi, i du...]

    Pagina 440

    [ ......]
    [ ......]
    [ ......]

    Pagina 441

    [ ......]
    [ ...= t = 2 senza fissare le dimensioni dei cluster (a) mentre le dimensioni di cluster fisse sono illustrate nellangolo in alto (b-e). ogni istogramma si basa sul confronto di 10.000 coppie di partizioni...]
    [ ...dei cluster (a) mentre le dimensioni di cluster fisse sono illustrate nellangolo in alto (b-e). ogni istogramma si basa sul confronto di 10.000 coppie di partizioni (podani, 1986). ...]

    Pagina 442

    [ ......]
    [ ......]

    Pagina 443

    [ ......]

    Pagina 444

    [ ......]

    Pagina 447

    [ ... che vi siano 80 oggetti, divisi in due cluster in ciascuna delle cinque classificazioni derivate indipendentemente. nella strategia pianificata con = 0,05, dalla distribuzione a sinistra della .ig. ...]
    [ ...glianza e le procedure di ordinamento o clustering necessariamente effettuate durante lelaborazione dei nostri dati. inoltre, quando una procedura produce risultati finali diversi e tuttavia ugualment...]

    Pagina 448

    [ ...li oggetti che appartengono allo stesso cluster in tutte le k classificazioni iniziali. questo, pur non contraddicendo una partizione iniziale, presenta tuttavia il potenziale svantaggio della possibi...]
    [ ......]
    [ ......]
    [ ...di qualunque altro gruppo: ossia, che i cluster di consenso sono completamente isolati. per illustrare la serie di consenso di cui sopra, si considerino le seguenti partizioni di 10 oggetti: p1 = { 1,...]

    Pagina 449

    [ ...alori piccoli e uniformi di k). per tre cluster, tuttavia, possiamo facilmente trovare la partizione di consenso: pt = { 1, 2, 3, 4 } { 5, 6 } { 7, 8, 9, 10 } gli oggetti di ogni cluster in pt appaion...]
    [ ...6 } { 7, 8, 9, 10 } gli oggetti di ogni cluster in pt appaiono insieme in almeno tre partizioni differenti. si tratta allo stesso tempo di un consenso intermedio e non possiamo essere certi che esista...]
    [ ......]
    [ ...senso (ossia, le distanze medie entro i cluster) e lisolamento degli oggetti (le distanze medie tra i cluster) vengono misurati simultaneamente. la gerarchia ottenuta consiste in una serie di partizio...]
    [ ......]

    Pagina 450

    [ ...sto prima di sottoporre la matrice d al clustering col legame completo. il consenso gerarchico delle classificazioni non gerarchiche viene illustrato mediante un esempio reale (podani, 1989a). un insi...]
    [ ......]
    [ ......]
    [ ...tenenza al gruppo delloggetto j per il cluster h nella partizione i. inoltre, sia uc il peso nella partizione di consenso cercata (.c). se il numero di ...]
    [ ...na allaltra in tutte le permutazioni di cluster possibili. le classi fittizie vengono aggiunte quando necessario per consentire il confronto di partizioni con numeri diseguali di classi. esistono p!k ...]
    [ ......]
    [ ......]

    Pagina 451

    [ ...sce i seguenti pesi di appartenenza del cluster a due classi (la matrice viene trasposta): 1.0 1.0 1.0 0.75 0.5 0.25 0.75 0.0 0.0 0.0 0.0 0.0 0.0 0.25 0.5 0.75 0.25 1.0 1.0 1.0 ...]
    [ ...5. - consenso gerarchico di partizioni: clustering di ottimizzazione globale di sei partizioni a 3 cluster di 80 siti di campionamento (in alto), proiezione dei tre maggiori gruppi del consenso rigoro...]
    [ ...izzazione globale di sei partizioni a 3 cluster di 80 siti di campionamento (in alto), proiezione dei tre maggiori gruppi del consenso rigoroso (linea continua) e partizione di consenso quasi ottimale...]

    Pagina 452

    [ ...oso sono costretti a mostrare solo quei cluster che appaiono in tutti gli alberi confrontati. in altre parole, se un particolare gruppo di oggetti appare nellalbero di consenso, vuol dire che gli ogge...]
    [ ......]
    [ ......]
    [ ......]

    Pagina 454

    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 455

    [ ......]
    [ ...il numero di coppie di oggetti per ogni cluster, ossia ni = ni (ni1)/2, e li sommano (somma di livelli). per gli alberi presi ad ...]

    Pagina 463

    [ ......]
  • Appendice A
  • Appendice B

    Pagina 475

    [ ...enza per una ricerca in rete. metodi di clustering anzitutto, si visiti la home page della classification society of north america (csna): http://www.classification-society.org/csna/csna.html ricca di...]
  • Appendice C
  • Bibliografia

    Pagina 493

    [ ...derfer, m. s. & r. k. blashfield. 1984. cluster analysis. sage, beverly hills. anderberg, m. r. 1973. cluster analysis for applications. academic, new york. anderson, e. 1935. the irises of the gaspe ...]
    [ ..., beverly hills. anderberg, m. r. 1973. cluster analysis for applications. academic, new york. anderson, e. 1935. the irises of the gaspe peninsula. bull. amer. iris soc. 59:2-5. anderson, e. 1936. th...]

    Pagina 494

    [ ...onjardet. 1981. the median procedure in cluster analysis and social choice theory. math. social sci. 1:235-268. bartlett, m. s. 1938. .urther aspects of multiple regression. proc. cambridge phil. soc....]
    [ ... 13-24. beale, e. m. l. 1969. euclidean cluster analysis. bull. i.s.i. 43:92-94. beale, e. m. l. & r. j. a. little. 1975. missing values in multivariate analysis. j. r. statist. soc., b 37:129-145. be...]
    [ ......]
    [ ...ard clustering algorithms. in: p. legendre & l. legendre (eds), developments in numerical ecology. springer, berlin. pp. 225-287. birks, h. j. b. & a. d. gordon. 1985. numerical methods in quaternary ...]

    Pagina 495

    [ ...lashfield, r. k. 1976. questionnaire on cluster analysis software. unpubl. paper., penn. state univ. blashfield, r. k. & m. s. aldenderfer. 1978. the literature on cluster analysis. multivar. behav. r...]
    [ ...s. aldenderfer. 1978. the literature on cluster analysis. multivar. behav. res. 13:271-295. bobisud, h. m. & l. e. bobisud. 1972. a metric for classifications. taxon 21:607-613. bock, r. d. 1975. mult...]

    Pagina 496

    [ .... harabasz. 1974. a dendrite method for cluster analysis. communications in stat. 3:1-27. camin, j. h. & r. r. sokal. 1965. a method for deducing branching sequences in phylogeny. evolution 19:311-326...]

    Pagina 498

    [ ...dale, m. b. 1988. knowing when to stop: cluster concept - concept cluster. coenoses 3:11-32. dale, m. b. 1989. dissimilarity for partially ranked data and its application to coverabundance data. veget...]
    [ ...when to stop: cluster concept - concept cluster. coenoses 3:11-32. dale, m. b. 1989. dissimilarity for partially ranked data and its application to coverabundance data. vegetatio 82:1-12. dale, m. b. ...]
    [ ...gorithms for agglomerative hierarchical clustering methods. j. classif. 1:7-24. dawkins, r. 1986. the blind watchmaker. longman, london. death, g. 1999. principal curves: a new technique for indirect ...]
    [ ...-2253. degens, p. o. 1983. hierarchical cluster methods as maximum likelihood estimators. in: .elsenstein, j. (1983), pp. 249-253. de queiroz, k. & j. gauthier. 1990. phylogeny as a central principle...]

    Pagina 499

    [ ...3:19-32. diday, e. & j. c. simon. 1976. clustering analysis. in: k. s. .u (ed.), digital pattern recognition. springer, new york. pp. 47-94. dietz, e. j. 1983. permutation tests for association betwee...]
    [ ...4):53-54. dubes, r. & a. k. jain. 1976. clustering techniques: the users dilemma. pattern recognition 8:247-260. dubes, r. & a. k. jain. 1979. validity studies in clustering methodologies. pattern rec...]
    [ ...& a. k. jain. 1979. validity studies in clustering methodologies. pattern recognition 11:235-254. dubien, j. l. & w. d. warde. 1979. a mathematical comparison of the members of an infinite family of a...]
    [ ... of an infinite family of agglomerative clustering algorithms. can. j. stat. 7:29-38. duncan, t., r. b. phillips & w. h. wagner, jr. 1980. a comparison of branching diagrams derived by various pheneti...]
    [ ..., cambridge. eckes, t. 1993. a two-mode clustering study of situations and their features. in: opitz e...]
    [ .... l. cavalli-sforza. 1965. a method for cluster analysis. biometrics 21:362-375. efron, b. 1982. the jackknife, the bootstrap, and other resampling methods. society for industrial and applied mathemat...]

    Pagina 500

    [ ......]
    [ ...iosci. 23:181-187. everitt, b. s. 1974. cluster analysis (1st ed.). heinemann, london. everitt, b. s. 1978. graphical techniques for multivariate data. heinemann, london. everitt, b. s. 1979. unresolv...]
    [ ...itt, b. s. 1979. unresolved problems in cluster analysis. biometrics 35:169-181. everitt, b. s. 1980. cluster analysis (2nd ed.). heinemann, london. everitt, b. s. & p. nicholls. 1975. visual techniqu...]
    [ ...etrics 35:169-181. everitt, b. s. 1980. cluster analysis (2nd ed.). heinemann, london. everitt, b. s. & p. nicholls. 1975. visual techniques for representing multivariate data. statistician 24:37-49. ...]

    Pagina 502

    [ .... clarendon, oxford. .orgy, e. w. 1965. cluster analysis of multivariate data: efficiency versus interpretability of classifications. biometrics 21:768-769. .owlkes, e. b. & c. l. mallows. 1980. a new...]
    [ ... of similarity between two hierarchical clusterings and its use in studying hierarchical clustering methods. classification soc. bull. 4(4):54. .owlkes, e. b., r. gnanadesikan & j. r. kettenring. 1988...]
    [ ...gs and its use in studying hierarchical clustering methods. classification soc. bull. 4(4):54. .owlkes, e. b., r. gnanadesikan & j. r. kettenring. 1988. variable selection in clustering. j. classif. 5...]
    [ ...kettenring. 1988. variable selection in clustering. j. classif. 5:205-228. .rank, o. & k. svensson. 1981. on probability distributions of single linkage dendrograms. j. stat. comput. simul. 12:121-131...]
    [ ......]
    [ ...s - a .ortran program for rapid initial clustering of large data sets. cornell university, ithaca, ny. ...]

    Pagina 503

    [ ...gauch, h. g. 1980. rapid initial clustering of large data sets. vegetatio 42:103-111. gauch, h. g. 1982. multivariate analysis in community ecology. cambridge univ. press, cambridge. gauch, h. g. & r....]
    [ ...8. affinity between an individual and a cluster in numerical taxonomy. biom. prax. 9:52-55. goodall, d. w. 1973a. sample similarity and species ...]

    Pagina 504

    [ ... arabie, l. hubert & g. desoete (eds.), clustering and classification. world scientific, river edge, nj. pp. 65-121. gordon, a. d. 1998. cluster validation. in: c. hayashi, n. ohsumi, k. yajima, y. ta...]
    [ ...ge, nj. pp. 65-121. gordon, a. d. 1998. cluster validation. in: c. hayashi, n. ohsumi, k. yajima, y. tanaka, h.-h. bock & y. baba (eds.), data science, classification, and related methods. springer, t...]
    [ .... 1967. a comparison of some methods of cluster analysis. biometrics 23:623637. gower, j. c. 1971a. statistical methods of comparing different multivariate analyses of the same data. in: hodson et al....]
    [ ...nimum spanning trees and single linkage cluster analysis. appl. stat. 18:54-64. graham, r. l. & l. r. .oulds. 1982. unlikelihood that minimal phylogenies for a realistic ...]

    Pagina 505

    [ ...ogram for stratigraphically constrained cluster analysis by the method of incremental sum of squares. comp. geosci. 13:1335. groenen, p. j. .. 1993. a comparison of two methods for global optimization...]
    [ ...1140-1158. hartigan, j. a. 1972. direct clustering of a data matrix. j. am. stat. assoc. 67:123-129. hartigan, j. a. 1975. clustering algorithms. wiley, new york. hartigan, j. a. 1981. block clusterin...]
    [ ...ssoc. 67:123-129. hartigan, j. a. 1975. clustering algorithms. wiley, new york. hartigan, j. a. 1981. block clustering. in: w: j. dixon (ed.), bmdp statistical software. univ. calif. press, berkeley. ...]
    [ ..., new york. hartigan, j. a. 1981. block clustering. in: w: j. dixon (ed.), bmdp statistical software. univ. calif. press, berkeley. pp. 474-478. harvey, l. e., .. w. davis & n. gale. 1988. the analysi...]

    Pagina 506

    [ ... matrix reorganization and hierarchical clustering. environment and planning a 14:195-203. ...]

    Pagina 507

    [ ...97-310. jambu, m. & m.-o. lebeaux 1983. cluster analysis and data analysis. north holland, amsterdam. james, .. c. & c. e. mcculloch. 1990. multivariate analysis in ecology and systematics: panacea or...]
    [ ...york. johnson, s. c. 1967. hierarchical clustering schemes. psychometrika 32:241-154. jolliffe, i. t. 1986. principal component analysis. springer, new york. jongman, r. h. g., c. j. .. ter braak & o....]

    Pagina 509

    [ ...ip between multidimensional scaling and clustering. in: j. van ryzin (ed.), classification and clustering. academic, new york. pp. 17-44. kruskal, j. b. 1983. an overview of sequence comparison. in: d...]
    [ ... j. van ryzin (ed.), classification and clustering. academic, new york. pp. 17-44. kruskal, j. b. 1983. an overview of sequence comparison. in: d. sankoff & j. b. kruskal (eds.), time warps, string ed...]

    Pagina 510

    [ ...4. lefkovitch, l. p. 1976. hierarchical clustering from principal coordinates: an efficient method for small to very large numbers of objects. math. biosci. 31:157-174. legendre, l. & p. legendre. 198...]
    [ ...72. on the theory and construction of k-clusters. comput. j. 15:326-332. lohmann, g. p. 1983. eigenshape analysis of microfossils: a general morphometric procedure for describing changes in shape. mat...]

    Pagina 511

    [ ...979. clusla: a computer program for the clustering of large phytosociological data sets. vegetatio 40:107-114. loy, a., m. corti & .. leslie. 1993. landmark data: size and shape analysis in systematic...]
    [ ...d. dane & g. kateman. 1993. on k-medoid clustering of large data sets with the aid of a genetic algorithm: background, feasibility and comparison. anal. chim. acta 282:647-669. luckow, m. & d. pimente...]
    [ ...tection of disease clustering and a generalized regression approach. cancer res. 27:209-220. marcotorchino, .. 1991. seriation problems: an overview. appl. stoch. models data anal. 7:139-151. marcus, ...]

    Pagina 512

    [ ...39-244. marsili-libelli, s. 1989. .uzzy clustering of ecological data. coenoses 4:95-106. matthews, j. a. 1978. an application of nonmetric multidimensional scaling to the construction of an improved ...]
    [ ...omposition and data reorganization by a clustering technique. op. res. 20:993-1009. mccune, b. 1986. pc-ord: an integrated system for multivariate analysis of ecological data. abstr. bot. 10:221-225. ...]
    [ ... 1993. classification of shoplifters by cluster analysis. int. j. offender therapy and comparative crimino...]
    [ .... w. 1989. a study of the beta-flexible clustering method. multivar. behav. res. 24:163-176. milligan, g. w. & m. c. cooper. 1985. an examination of procedures for determining the number of clusters i...]
    [ ...rocedures for determining the number of clusters in a data set. psychometrika 50:159-179. ...]

    Pagina 513

    [ .... 1996. mathematical classification and clustering. kluwer, dordrecht. mishler, b. d. & s. p. churchill. 1985. transition to a land flora: phylogenetic relationships of the green algae and bryophyes. ...]
    [ ......]
    [ ...rvey of recent advances in hierarchical clustering algorithms. computer j. 26:354-359. naylor, g. j. p. 1996. can partial warp scores be used as cladistic characters? in: marcus et al. (1996), pp. 519...]

    Pagina 514

    [ ...7. neumann, d. a. & v. t. norton. 1986. clustering and isolation in the consensus problem for partitions. j. classif. 3:281-297. noest, v. & e. van der maarel. 1989. a new dissimilarity measure and a ...]

    Pagina 516

    [ ...ue, iowa. podani, j. 1978. a method for clustering of binary (floristical) data in vegetation research. acta bot. acad. sci. hung. 24:121-137. podani, j. 1979a. generalized strategy for homogeneity-op...]
    [ ...odani, j. 1989b. new combinatorial sahn clustering methods. vegetatio 81:61-77. podani, j. 1989c. syn-tax iii-pc: computer programs for data analysis in ecology and systematics. j. classif. 6:273-278....]

    Pagina 517

    [ ... the detection of the optimum number of clusters. in: c. hayashi, n. ohsumi, k. yajima, y. tanaka, h.-h. bock & y. baba (eds.), data science, classification, and related methods. springer, tokyo. pp. ...]
    [ ...bjective criteria for the evaluation of clustering methods. j. amer. stat. assoc. 66:846-850. ...]

    Pagina 518

    [ ...ohlf, .. j. 1970. adaptive hierarchical clustering schemes. syst. zool. 19:58-82. rohlf, .. j. 1973. algorithm 67: hierarchical clustering using the minimum spanning tree. computer j. 16:93-95. rohlf,...]
    [ ... .. j. 1973. algorithm 67: hierarchical clustering using the minimum spanning tree. computer j. 16:93-95. rohlf, .. j. 1974. methods of comparing classifications. ann. rev. ecol. syst. 5:101-113. rohl...]
    [ ...e computation of jardine and sibsons bk clusters. computer j. 18:164-168. rohlf, .. j. 1977. a note on the...]

    Pagina 519

    [ ... zool. 29:97117. romesburg, h. c. 1984. cluster analysis for researchers. lifetime learning publ., belmont, ca. rosen, d. e. 1978. vicariant patterns and historical explanation in biogeography. syst. ...]

    Pagina 520

    [ ...351. scott, a. j. & m. j. symons. 1971. clustering methods based on likelihood ratio criteria. biometrics 27:387-397. scott, g. h. 1980. the value of outline processing in the biometry and systematics...]
    [ ...idimensional scaling, tree-fitting, and clustering. science 210:390-398. shepard, r. n. & j. d. carroll. 1966. parametric representation of nonlinear data structures. in: p. r. krishnaiah (ed.), multi...]

    Pagina 521

    [ ... dubes. 1980. stability of hierarchical clustering. pattern recognition 12:177-187. sneath, p. h. a. 1957. the application of computers to taxonomy. j. gen. microbiol. 17:201-226. sneath, p. h. a. 196...]
    [ .... h. a. 1966. a comparison of different clustering methods as applied to randomly spaced points. classif. soc. bull. 1:2-18. sneath, p. h. a. 1995. thirty years of numerical taxonomy. syst. biol. 44:2...]
    [ ......]

    Pagina 524

    [ ...26. williams, w. t. 1971. principles of clustering. ann. rev. ecol. syst. 2:303-326. williams, w. t. (ed.) 1976. pattern analysis in agricultural ...]
  • Indice Analitico

    Pagina 528

    [ ......]
    [ ......]
    [ ......]
    [ ......]

    Pagina 530

    [ ......]
    [ ...one), 152, 156 .uzzy c-medie, 151 .uzzy clustering (classificazione sfocata), 151156, 211 .uzzy set (insieme fuzzy), 151, 353 g gamma di goodman - kruskal, 92, 129 gerarchia, 164 gerarchia esclusiva/i...]

    Pagina 532

    [ ......]

    Pagina 533

    [ ...ne angolare, 95, 98, 130 separazione di clustering, 137 separazione di gruppi, 137 sequenza, 87, 88, 99 seriazione, 380, 385, 414 seriazione a blocchi, 377, 380 serie ordinate, 79, 92 serie spaziali, ...]
  • Quarta di copertina