Junior B.
7K posts

Junior B.
@bontoJR
Sr. Software Engineer at ~ CV/ML Integration @ Zürich Vision Lab | Husband & Father | Formerly: Swift-DocC, @appbuilders_ch & @swiftalps | Opinions are mine
Switzerland Katılım Mayıs 2009
470 Takip Edilen2.1K Takipçiler
Junior B. retweetledi

Venture into the wilderness of British Columbia, where three of the world’s top freeskiers push their limits in World of Red Bull: Backcountry Skiing. An all-new Apple Immersive experience, only on #AppleVisionPro.
English

@RobertoBurioni Semestre filtro per le medie? Non sapevo esistesse 😅
No davvero, mi rifiuto di credere che vengano fatte certe domande all'università e poi si rompano le balle ai professori che decidono di non fare passare chi non sa rispondere...
Italiano

@Cr1st14nM3s14n0 @dottorpax @diewolf Ci sono un sacco di altri possibili scenari che rendono il problema infinitamente più complessi e ci sono in sacco di esempi più banali.
Detto questo, posso avere il link al paper citato? Vorrei leggerlo.
Italiano

@Cr1st14nM3s14n0 @dottorpax @diewolf Si, ma lo fa mettendo l’accento sull’accuracy e parte della presupposto che ci siano solo due scelte e parla chiaro che non ci sono vie di mezzo.
Io ho fatto notare che l’esempio secondo me non calza perché nel mondo reale non è un modello realistico.
Italiano

Ispirato da un recente tweet di @Cr1st14nM3s14n0, ed evitando di complicare troppo (ad esempio, evito tutta la pippa sull'honest assessment, la convalida, il rebalancing).
Immaginiamo di essere seduti su un’auto a guida autonoma. È sera, l’asfalto è bagnato, magari piove leggermente.
Davanti a noi, qualcosa si muove sulla strada: un oggetto scuro, poco definito. L’auto ha pochi istanti per decidere cosa fare.
Per il computer di bordo (sperando che la decisione sia solo locale), la domanda è sempre la stessa: “Quello che vedo è un pericolo oppure no?”
Se è pericoloso → STOP.
Se non lo è → VAI.
Fine. Due scelte, nessuna via di mezzo. Sono ancora oggetti manichei, in fondo.
Immaginiamo di avere un archivio di situazioni che l’auto ha già visto, una specie di memoria storica. Dentro ci sono 1000 casi. In 995 di questi, l’ostacolo era solo una busta di carta che volava o rotolava per strada, una cosa innocua che possiamo tranquillamente ignorare. Ma in 3 casi si trattava di una persona che attraversava la strada. In 2 casi, poi, c’era un muro, o comunque un ostacolo solido contro cui è decisamente meglio non andare a sbattere.
Quindi, in questo nostro piccolo mondo osservato, le situazioni “tranquille” sono 995 su 1000. Quelle veramente pericolose sono solo 5. Poche, rare, ma diremmo decisive.
Ora immaginiamo di costruire un modello banalissimo, quasi ridicolo. Un modello che “impara” una sola cosa dal passato: nella stragrande maggioranza dei casi l’ostacolo era una busta di carta, quindi conviene dire sempre la stessa cosa: VAI. Sempre. Qualunque cosa appaia davanti. (È un errore molto più comune di quello che possiate pensare).
Se applichiamo questo “modello” ai nostri 1000 casi, succede più o meno questo: nei 995 casi in cui l’ostacolo è una busta, dire VAI è giusto. L’auto passa, tutto bene. Nei 3 casi in cui compare una persona, dire VAI è tragicamente sbagliato. Nei 2 casi in cui c’è un muro, dire VAI è di nuovo una pessima idea. Ma se guardiamo solo i numeri, abbiamo 995 decisioni corrette su 1000: una percentuale di successo del 99,5%!
Se ci fermiamo a quel numero, il modello sembra praticamente perfetto: “Ha ragione quasi sempre!”. Eppure, basta un attimo di buon senso per accorgerci che è il peggior modello possibile: non riconosce mai un vero pericolo. Non è certo il modello da generalizzare e portare in produzione. Sbaglia il 100% dei casi critici. Ogni singolo errore corrisponde a una persona investita o a un incidente grave. Il problema è che la bellissima percentuale del 99,5% è gonfiata dai casi facili, dalle buste di carta, cioè da tutto ciò che, in fondo, non ci preoccupa davvero.
L’accuracy, quella percentuale di previsioni “giuste”, mette sullo stesso piano la busta di carta e la persona. Un errore su una busta vale quanto un errore su un pedone. Ma noi, istintivamente, sappiamo che non è così. Sbagliare una busta è fastidioso al massimo, sbagliare una persona è una tragedia. Il numero, da solo, non fa questa distinzione.
Per rendere il quadro ancora più chiaro, immaginiamo ora il modello opposto. Quello iper-prudente, ansioso, terrorizzato dall’idea di sbagliare. Questo secondo modello decide che il mondo è un posto pericolosissimo e che non si è mai troppo prudenti. La sua regola è semplicissima: fermiamoci sempre. Qualsiasi cosa vediamo, STOP, inchiodiamo.
In questo caso, i 5 scenari davvero pericolosi vengono tutti riconosciuti come tali: persona o muro, comunque l’auto si ferma. Nessun incidente, dal punto di vista della sicurezza funziona alla grande. Ma c’è un piccolo dettaglio: l’auto si ferma anche davanti alle 995 buste di carta. Risultato: sicurezza massima, ma esperienza d’uso disastrosa. Non arriviamo mai da nessuna parte, ogni situazione è un’emergenza.
Se facciamo i conti, il modello ansioso fa pochissime previsioni “giuste” in senso numerico. E quindi la sua percentuale di successo sarà bassissima. Ma dal punto di vista della sicurezza è molto meglio del primo. E qui sta l'apparente contraddizione: il modello con l’accuracy altissima è pericoloso, quello con l’accuracy bassissima è sicuro (anche se impraticabile).
Questo ci dice una cosa molto semplice: quel numerone in percentuale (99,5%), preso da solo, non basta a raccontare la storia. MAI.
Nella vita reale, non tutte le situazioni pesano allo stesso modo. E non tutti gli errori hanno le stesse conseguenze. Fermarci per una busta di carta è un falso allarme: ci fa perdere un po’ di tempo, ci infastidisce, forse ci fa venire voglia di insultare l’auto o i programmatori, ma non cambia il corso delle cose. Certo, fermarsi sempre diventa ridicolmente impraticabile.
Investire una persona in mezzo alla strada, però, è un errore che cambia tutto. Se mettiamo insieme tutte queste cose in un unico numero, senza differenze, stiamo mescolando pere e mele.
La stessa logica vale in tanti altri ambiti. In medicina, sbagliare una volta su cento può voler dire semplicemente confondere un raffreddore con un’allergia, ma può anche voler dire non riconoscere un tumore raro (e neppure troppo). In banca, un errore su mille può essere concedere un piccolo prestito di troppo, oppure lasciar passare una frode gigantesca. Nei sistemi di allerta per disastri naturali, ignorare un segnale raro può equivalere a non evacuare una zona prima di un’alluvione.
Gli eventi rari ma estremi sono pochi, spesso quasi invisibili nelle statistiche “medie”, ma sono quelli che contano di più. Se il nostro modello è bravissimo nei casi banali e fallisce proprio su quelli cruciali, il numero che misura la sua bravura rischia di essere una specie di trucco ottico: ci mostra il quotidiano, ci nasconde la potenziale catastrofe.
Un buon modello deve saper gestire molte situazioni differenti. Svilupparlo non è banale, è una scienza, ma anche un po' un'arte. Non credete a chi vi dice che tutto è ottenibile in modo data-driven, perché poi vi schiantate o non vi muovete più.
E allora, la prossima volta che qualcuno vi dirà: “Questo modello è fantastico, ha il 99% di accuracy”, forse vi tornerà in mente l’auto che non si ferma mai. Potrete chiedervi: “Sì, ma su cosa ha ragione? E soprattutto: su cosa ha torto?”. Perché tra una busta di carta e una persona in mezzo alla strada, un algoritmo tende a contarle come due casi qualsiasi. Un algoritmo non ha, di per sé, un sistema valoriale. Ma noi, al posto di guida, sappiamo benissimo che non valgono per niente lo stesso.
Un'altra volta vi (ri)parlo di sensibilità, specificità e compagnia cantando. E magari anche del paradosso della predizione.
Italiano

@dottorpax @diewolf @Cr1st14nM3s14n0 Perché inutile?
Io sono curioso di sapere perché considera l’esempio oncologico errato?
Scomodiamola pure la classificazione multinonimale se necessario, non credo si offenda :)
Italiano

@bontoJR @diewolf @Cr1st14nM3s14n0 Controesempio errato, quello oncologico.
Poi si potrebbe scomodare il come la classificazione multinomiale mappi sulla binaria, ma mi pare inutile per un tweet che parte con un chiaro disclaimer.
Italiano

@dottorpax @diewolf @Cr1st14nM3s14n0 Sarebbe bastato prendere un esempio più classico usato in diversi libri: il rilevamento di un tumore. “C’é” o “non c’é”, problema con due soluzioni ben definite e che anche qui ha un forte impatto sotto il profilo umano in caso di errore con gravi conseguenze.
Italiano

@dottorpax @diewolf @Cr1st14nM3s14n0 Chi legge senza dimestichezza ora può pensare che un sistema a guida autonoma usa modelli che decidono “vado” o “mi fermo” quando la realtà è molto più complessa.
Italiano

@diewolf @dottorpax @Cr1st14nM3s14n0 Concordo. Esempio scelto male per diversi motivi, ma quello su tutti che mi lascia basito è che si è scelto un problema che nel mondo reale non è binario per spiegare un concetto che richiede due possibilità di risultato ben definite, quando ci sono un sacco di altri esempi.
Italiano

@dottorpax @Cr1st14nM3s14n0 Capito il punto accuracy alta può nascondere errori critici. Però l’esempio dell’auto autonoma è fuorviante: in automotive non potresti mai avere modelli che ‘dicono sempre VAI’ o ‘sempre STOP’, perché la Functional Safety lo rende impossibile già a livello di design.
Italiano

@snkguzman Ma un confronto con Batistuta si può fare? Per curiosità….
Italiano

36 gol in nazionale? ADESSO PARLO IO
THREAD: SMASCHERO LAUTARO MARTINEZ
⬇️

Fabrizio Biasin@FBiasin
Lautaro a segno in Angola-Argentina. Con questo gol stacca Crespo ed è solo al quarto posto nella classifica dei migliori marcatori nella storia dell’Argentina. 1) Messi 114 2) Batistuta 55 3) Aguero 41 4) LAUTARO 36 5) Crespo 35
Italiano

@eleonora_aloise Se Federer avesse influenzato l’insegnamento oggi avremmo schiere di rovesci ad una mano, invece sono una decina nei top 100 e meno di 50 nei primi 1000. Con Rafa avremmo terraioli con topspin aggressivo, invece gli specialisti sono in via d’estinzione purtroppo.
Italiano

@eleonora_aloise Ma non è vero che i giocatori ne cambiano la direzione (almeno dal dopo Borg), altrimenti avremmo sempre numeri uno molto simili negli anni, invece ogni generazione si adatta giustamente all’evoluzione naturale dei materiali e dei campi.
Italiano

Il tennis evolve a priori, ma certi giocatori ne cambiano la direzione. È successo con Rafa, prima di lui certe rotazioni non esistevano nelle scuole tennis. Si può capire quando una persona ha cominciato a giocare dall’altezza in cui colpisce la palla di dritto, per esempio. Anche Nole, certo, la sua influenza aveva più a che fare con la tecnica aliena che con lo stile. Diciamo che i bambini sognavano di essere Nadal e da adolescenti Djokovic.
Con Roger è stato diverso, per essere come lui le scuole tennis potevano al massimo organizzare gite a Lourdes per immergere la mano nell’acqua benedetta.
Per me, la generazione dei ‘90 era troppo vicina per interiorizzare questo cambiamento, che invece ha segnato molto quella successiva. Sono rimasti incastrati fra due epoche, passando dall’essere tennisticamente troppo giovani a troppo vecchi, senza diventare mai adulti.
La capacità di modificare l’insegnamento oggi ce l’hanno Carlos e Jannik, per gli stessi identici motivi e nelle stesse forme di Nadal e Djokovic. Però, complice una enorme esposizione del tennis e una triplicata rapidità dei processi di cambiamento e apprendimento, è più facile che la generazione successiva sia in grado di acquisire i metodi e trovare contromisure, chissà.
Rimane il fatto che i talenti generazionali sono fortunate gocce nel mare, ma è bello sapere che una sola goccia può decidere il movimento delle onde.
#tennis #sinner #janniksinner
paolo bertolucci@paolobertolucci
I due in fuga
Italiano

@CoinPulse360 Good point, you can't do CAD inside the Contacts app
English

One of the biggest culture shocks working at Apple was that they actually use Calendar, Contacts, Pages, Numbers, and Keynote to run the company.
Tim Cook@tim_cook
It all begins with a great idea.
English
Junior B. retweetledi

@marmadridd Fino a prima del Covid qui sopra si discuteva, e pure bene. Ho conosciuto tante persone interessanti, poi incontrate anche nel reale. Poi qualcosa si è rotto, sono aumentati i bot, gli insulti e compagnia.
Italiano

@_sam_sa_ra @FedericaMontu6 @rootlives_ Questo thread, con risposta seria finale, é una perla. Credo però che la cosa sia sarcastica… spero 🥲
Italiano

Al Genius ed era tecnico HW in un Apple Store? Anche io lavoravo alla Apple, questa funzione è uscita con IOS 9. Non è assolutamente vero che la batteria esplode se caricata con il RE attivo.
Gli IPhone che “esplodevano”erano i 5C (quelli colorati) senza nemmeno che fossero in carica.
Si disattiva automaticamente quando la batteria è carica, pensa!
Italiano







