A proposito di antialiasing

Aperto da Lexiw, 25 Febbraio 2003, 10:56:45

Discussione precedente - Discussione successiva

0 Utenti e 1 Visitatore stanno visualizzando questa discussione.

repne scasb

CitazioneCiao Repne,
QUANDO FAI COSì MI SPAVENTI !!! :D.

P.s. Volevo chiederti se sei ancora molto impegnata o puoi, adesso, darci una mano con i driver.
Sappi che il gruppo sta crescendo molto bene e se ci vorrai aiutare ti metterò al corrente di tutto.
Ciao e spero MOLTO vivamente che vorrai accordarci un po del tuo tempo.

PS. Puoi anche rispondermi in privato sempre se vuoi.

Ti ringrazio, per la simpatia e la considerazione che mi dimostri, e mi dolgo per la tardiva risposta, ma ho passato l'intero pomeriggio ad installare Microsoft Visual Studio .NET (7.0.9500) + Framework (1.0.3705) + SQL Server.

Attualmente mi sto dedicando ad un'estesione della legge di Zipf, ed all'applicazione di tale estensione (esiste una distribuzione non-gaussiana di Zipf sufficientemente "grande" da identificare una sottocategoria linguistica?) per associare un documento ad una categoria linguistica.

Ossia: senza addentrarmi in inutili tecnicismi, sto sviluppando un algoritmo che "dovrebbe" essere in grado di dire: Questo documento e' simile a quest'altro, indipendentemente dalla lingua parlata all'interno dei documenti (i due documenti devono parlare la stessa lingua).

Vorrei farti notare che l'affermazione di pocanzi funziona senza la conoscenza della lingua parlata nei due documenti. Ossia: se mi dai due documenti klingoniani senza conoscere il klingoniano "dovrei" essere in grado di dirti se i due documenti parlano della stessa cosa (anche se all'interno dei due documenti ci sono termini totalmente diversi).

Tutto cio' sembra incredibile, e l'idea non e' mia ma di mio un'amico di vecchia data (che non sa nulla di programmazione) che ha congetturato: Due documenti che parlano del medesimo argomento, hanno una distrubizione linguistica (log(frequnza)/log(rango)^a=1, a=distribuzione linguistica) che dipende dall'argomento.

Il mio scopo attuale e' verificare se tale congettura e' vera o no (ecco spiegato SQL server, dovro' infatti lavorare con tabelle composte da milioni di record), e' quindi verosimile che il mio futuro stia con .NET.

Scusami.

--
0F2h 0AEh

Manuelson

Ciao Ciao da Manuelson powered by Athlon64 3800 X2 @2400mhz e Voodoo Tv! ;-) Voodoo Two? Yes I do..!

thedarkenemy

sembra talco ma non lo è serve a dari l'allegra...
se lo mangi o lo respiri ti da subito l'allegria...
COROCOROPOLLON!!!!

Pandyno

Repne complimenti per ''l' apertura mentale'' e per le conoscenze tecniche che dimostri ogni volta ;)

Potresti dare una mano ad Overmind nella nuova sezione ;)

ah dimenticavo buon lavoro ;)
? ! ? -? ? !! ? ?

Khana

Mi permetto di intervenire...
Seppur a livello LOGICO l'algoritmo da te presentato POTREBBE essere vero (il dubbio è sulle >MIE< conoscenze in merito), da un punto di vista teoretico non è plausibile.
Mi spiego.
Se un tale algoritmo funzionasse, sarebbe in grado di scindere significato da significante, e quindi dovrebbe essere in grado di interpretare gli scritti a livello fenomenologico, andando ad intuire il senso (termine tecnico da Frege -> Bedeutung) del discorso, sapendo scindere a livello struttrale ciò che è scritto da ciò che è inteso.
Segno e senso, nella lingua parlata (o scritta) non sono necessariamente in una relazione bi-univoca.
Esempio:

Ho cotto le patate a fuoco lento.
La tua patata è tutta un fuoco.

E' probabile che le due frasi qui sopra riportate risultino V se sottoposte ad un controllo logico/booleano in una funzione derivante dall'algoritmo da te esposto.
Di fatto, la prima parla di cibo, la seconda di sesso.
La lingua parlata (e scritta) è in grado di "camuffare" dietro a segno/significanti determinati sensi/significati completamente differenti.
Il progetto del tuo amico è perfettamente applicabile a testi scientifico/divulgativi di cui sia attestata la serietà e la buona fede, ma creerebbe non pochi problemi se sottoporreste a tale controllo un testo "ironico" con uno "serio".

D'altro canto, esiste il problema contrario: a segni/significanti completamente differenti può (e di solito lo fa) corrispondere un senso/significato del tutto identico.

Esempio:
Venere
Vespro
La stella del mattino

Tre modi completamente differenti per definire/denotare il 4° pianeta del sistema solare (notare che anche "il 4° pianeta del sistema solare" è un ulteriore modo per deontare tale oggetto).

Ora, non nego che il progetto in sé sia realizzabile, ma a mio modesto parere diventerebbe solo un enorme database di sinonimi e contrari in cui l'algoritmo presentato non ha il ruolo determinante che a prima vista sembrerebbe.

Si consiglia a tale proposito la lettura delle opere dei seguenti autori:
F.L. Gottlob Frege
Paolo Casalegno
Bertrand Russell



Powered by


- non svegliate il can che morde -

Amigamerlin

Citazione
CitazioneCiao Repne,
QUANDO FAI COSì MI SPAVENTI !!! :D.

P.s. Volevo chiederti se sei ancora molto impegnata o puoi, adesso, darci una mano con i driver.
Sappi che il gruppo sta crescendo molto bene e se ci vorrai aiutare ti metterò al corrente di tutto.
Ciao e spero MOLTO vivamente che vorrai accordarci un po del tuo tempo.

PS. Puoi anche rispondermi in privato sempre se vuoi.

Ti ringrazio, per la simpatia e la considerazione che mi dimostri, e mi dolgo per la tardiva risposta, ma ho passato l'intero pomeriggio ad installare Microsoft Visual Studio .NET (7.0.9500) + Framework (1.0.3705) + SQL Server.

Attualmente mi sto dedicando ad un'estesione della legge di Zipf, ed all'applicazione di tale estensione (esiste una distribuzione non-gaussiana di Zipf sufficientemente "grande" da identificare una sottocategoria linguistica?) per associare un documento ad una categoria linguistica.

Ossia: senza addentrarmi in inutili tecnicismi, sto sviluppando un algoritmo che "dovrebbe" essere in grado di dire: Questo documento e' simile a quest'altro, indipendentemente dalla lingua parlata all'interno dei documenti (i due documenti devono parlare la stessa lingua).

Vorrei farti notare che l'affermazione di pocanzi funziona senza la conoscenza della lingua parlata nei due documenti. Ossia: se mi dai due documenti klingoniani senza conoscere il klingoniano "dovrei" essere in grado di dirti se i due documenti parlano della stessa cosa (anche se all'interno dei due documenti ci sono termini totalmente diversi).

Tutto cio' sembra incredibile, e l'idea non e' mia ma di mio un'amico di vecchia data (che non sa nulla di programmazione) che ha congetturato: Due documenti che parlano del medesimo argomento, hanno una distrubizione linguistica (log(frequnza)/log(rango)^a=1, a=distribuzione linguistica) che dipende dall'argomento.

Il mio scopo attuale e' verificare se tale congettura e' vera o no (ecco spiegato SQL server, dovro' infatti lavorare con tabelle composte da milioni di record), e' quindi verosimile che il mio futuro stia con .NET.

Scusami.

--



Scusami repne, mi hai detto che non hai del temp oda dedicarci :D ?
Spero di no !!!

Ciao :D


Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

ToxicWaltz

Celly 900@1200 256mb Voodoo3 3500TV@203MHz e timings al minimo ;)
bios Voodoo4 4500 1.16
Presto anche una Voodoo5 5500!!

andreagiommi

Dio come mi sento ignorante...:( sempre più...:( :(:( ma che studi avete fatto (repne e khana)?:(

SSDD

Il buongiorno si vede dal mattino... E' la giornata di merd@ che ti coglie impreparato!!!

Khana

Filosofia... (estetica) :cool:
E non ho ->popriamente<- ancora finito.

Powered by


- non svegliate il can che morde -

repne scasb

CitazioneMi permetto di intervenire...

La congettura che mi appresto a verificare non e' applicabile all'esempio:

Ho cotto le patate a fuoco lento.
La tua patata è tutta un fuoco.

Perche le due frasi sono troppo piccole e dal punto di vista statistico non sono significative.

L'approccio di questa congettura e' totalmente matematico, ossia non dipende dalla lingua, non dipende dal senso delle parole usate, non dipende dal significato delle parole usare, non dipende dalle parole.

Funziona con "entita'", che nel caso di documenti sono parole, ma potrebbero essere anche note musicali, o qualunque altro insieme di "entita'" costituito da elementi che abbiano una relezione non caotica.

Non si puo' spiegare ad un computer il senso di un discorso, chi ha tentato di farlo, errava, chi sta insistendo, non capisce come funziona un computer.

In sostanza credo che non ti sia chiaro cosa fa la congettura, allora preciso:

Prendi 1.000.000 documenti generici, ordina tutte le parole in funzione della frequenza. La legge di Zipf (ampliamente dimostrata) sostiene che esiste una relazione tra la frequenza di un sostantivo e il suo rango,  (il rango e' la posizione che una parola occupa quando e' ordinata): fn/f1=r1/rn

Ossia: se la parola "di" compare 100.000 volte ed e' la prima, la seconda parola "con" comparira' 50.000 volte, la terza 33.333, la quarta 25.000 volte, la ennesima 100.000/n (sembra incredibile ma e' vero)

Ora, consideriamo 1.000 documenti non generici ma che parlano, per esempio, di sport, ordiniamo tutte le parole in funzione della frequenza, e consideriamo i seguenti database:

1) Database delle parole ordinate del 1.000.000 di documenti generici
2) Database delle parole ordinate dei 1.000 documenti di sport

Ora consideriamo la distribuzione statistica delle parole del secondo database nel primo database, la congettura esprime che: questa distribuzione statistica e' tipica per lo sport.

Ora prendi un documento generico di sport sufficientemente grande (non vanno bene 4 parole), tale documento avra' una distribuzione "sport" tipica, matematica, non semantica.

Nota l'appriccio totalmente innovativo, trovare un'"impronta matematica" all'interno di strutture logiche e non caotiche. Nota tale impronta (distribuzione statistica), due strutture logiche si diranno simili se avranno impronte simili.

Una versione preliminare di questo algoritmo e' stata in grado di riconoscere musica jazz (in formato midi) da musica generica nel 96,2% dei casi.

Ora il computer non sa cosa sia la musica jazz, riconosce solo che l'impronda della distribuzione matematica jazz e' tipica.

Sembra una follia, sembra tutto falso, sembra improponibile, ma funziona.

Ora poiche' il fenomeno e' altamente non lineare, dovro' verificare che tale algorirmo sia invariante rispetto al numero di dati iniziale, oltre a cio' dovro' verificare la soglia minima di dati affinche' l'impronta matematica sia significativa.

Per fare questo ho deciso di utilizzare le reti neurali e la fuzzy logic. Tali tecniche be si adattano all'algoritmo automodificante che ho in mente.

La soluzione viene raggiunta per approsimazioni successive, premiando i nodi bravi e punendo i nodi cattivi.

La mia idea finale e' realizzare un decrittatore automatico basato su impronte matematiche date da distribuzioni tipiche.

Sembra uno scioglilingua, ma almeno vorrei verificare se funziona.

--
0F2h 0AEh