Skip to main content

in reply to Gilbert Busana

A parità di dati e di "intelligenza" puoi ridurre la probabilità di generare un falso positivo esclusivamente aumentando la probabilità di un falso negativo.

E viceversa.

Se vuoi ridurre entrambi devi procurarti altri dati sensati oppure usare un' "intelligenza" migliore.

Un'arte a parte è determinare quale sia la probabilità.
in reply to Gilbert Busana

E cosa dovrebbe spiegare la "macchina"?

Dovrebbe dire "rivolgiti ad una persona esperta"

Chiaro, che se ognuno si considera esperto, solo perché sa leggere i numeri e sa accendere la macchina...

E la persona esperta di cosa avrà bisogno?

Di informazioni "a priori", saper valutare l'importanza di "falso positivo" e di "falso negativo" e di "vero positivo" e di "vero negativo"

E forse la mossa successiva sarà un altro "test", con altri "falsi" e "veri"

non esistono certezze
in reply to Gilbert Busana

no, non è questo il punto: tu non controlli i risultati di un software ?
in reply to Gilbert Busana

Mi chiedi se controllo i risultati di un test?

si, certamente

se mi chiedi se secondo me le persone sanno interpretarli, il parere mio è: no, raramente capiscono cosa significano, anche dopo che provi a spiegarlo.

devo dire che non mi è molto chiaro cosa tu intendi con "macchina", software, test ecc.

mi faresti un esempio concreto?
in reply to Gilbert Busana

E' un tema che tratto sul mio podcast quando parlo di IA, scusa se sono stato sintetico. Parlo della necessità di tracciare il ragionamento fatto dalla AI. E' una tecnica che ho sviluppato in un mio chatbot, praticamente ho i log delle scelte che il chatbot prende, sulla base dei contenuti che ha a disposizione, senza profilare.
Purtroppo non ci sono altri esempi concreti famosi: sembrano tutti molto gelosi, lasciando questi tool al team di sviluppo.
in reply to Gilbert Busana

hm. sapere cosa ha pensato la macchina

devo ammettere, che appena mi allontano dai modelli base, la capacità di comprensione dei parametri di un modello si avvicina sempre di più allo zero assoluto

l'approccio in tal caso non consiste nel capire i parametri, ma nel valutare i risultati sulla base di esempi noti. Se il "sistema" giunge alle nostre stesso conclusioni, allora siamo contenti. Altrimenti no

dando in pasto valori modificati, si può osservare cosa cambia nell'output
in reply to Gilbert Busana

non solo "contenti" ma e' anche piu' comodo accettare il risultato. Io combatto la giustizia predittiva perche' per un giudice sara' difficile discostarsi dalla previsione fatta da una macchina, se non cercando giustificazioni proprie invece di discutere i motivi della decisione della macchina (che non puo' conoscere)
in reply to Gilbert Busana

con "giustizia predittiva" intendi quelle cose tipo "probabilità che scappa dai domiciliari" per stabilire se darglieli o meno?
in reply to Gilbert Busana

no, mandarlo ai domiciliari o in carcere :)
comunque e' sempre una decisione di un giudice sulla base di leggi e precedenti decisioni :-)
in reply to Gilbert Busana

mi entusiasma poco che i giudici si affidino ad una scatola nera fatta da una ditta privata che, immagino, considera segreto aziendale il suo funzionamento.

spero che se deve succedere sia la legge e una buona discussione (non astratta) ad introdurla
in reply to Gilbert Busana

conosco due progetti italiani bellissimi: uno per le indagini di polizia, l'altro per la decisione dell'assegno divorzile.
Ne ho parlato nel mio dizionario (free) https://www.civile.it/internet/Giustizia%20predittiva

Una terza tendenza e' quella passata in silenzio: i giudici della Cassazione stanno addestrando un sistema formativo per finalità proprie: https://www.civile.it/news/visual.php?num=95801

This website uses cookies to recognize revisiting and logged in users. You accept the usage of these cookies by continue browsing this website.