Junior B.

7K posts

Junior B. banner
Junior B.

Junior B.

@bontoJR

Sr. Software Engineer at  ~ CV/ML Integration @ Zürich Vision Lab | Husband & Father | Formerly: Swift-DocC, @appbuilders_ch & @swiftalps | Opinions are mine

Switzerland Katılım Mayıs 2009
470 Takip Edilen2.1K Takipçiler
Quindici Zero 🎾
Quindici Zero 🎾@quindicizero·
Sarà Fonseca l'avversario di Berrettini agli ottavi di Monte-Carlo: il brasiliano ha sconfitto in tre set Rinderknech col punteggio di 7-5 4-6 6-3 👀
Italiano
7
2
116
5.8K
Sebastiaan de With
Sebastiaan de With@sdw·
Some big personal news: I’ve joined the Design Team at Apple. So excited to work with the very best team in the world on my favorite products. ✌️
Sebastiaan de With tweet media
English
765
290
10.7K
2.1M
Junior B. retweetledi
Apple TV
Apple TV@AppleTV·
Venture into the wilderness of British Columbia, where three of the world’s top freeskiers push their limits in World of Red Bull: Backcountry Skiing. An all-new Apple Immersive experience, only on #AppleVisionPro.
English
20
39
285
34.2K
Daniele Bizzozero
Daniele Bizzozero@dlbizz·
@RobertoBurioni Semestre filtro per le medie? Non sapevo esistesse 😅 No davvero, mi rifiuto di credere che vengano fatte certe domande all'università e poi si rompano le balle ai professori che decidono di non fare passare chi non sa rispondere...
Italiano
1
0
15
3.1K
Roberto Burioni
Roberto Burioni@RobertoBurioni·
"Sapendo che 1 metro è uguale a 100 centimetri" ecco la difficoltà di alcune domande dell'esame di fisica che ieri ha fatto strage al "semestre filtro". In un Paese oggettivamente privo di un'istruzione primaria e secondaria non può esistere uguaglianza.
Roberto Burioni tweet media
Italiano
146
160
1.6K
304.9K
Junior B.
Junior B.@bontoJR·
@Cr1st14nM3s14n0 @dottorpax @diewolf Ci sono un sacco di altri possibili scenari che rendono il problema infinitamente più complessi e ci sono in sacco di esempi più banali. Detto questo, posso avere il link al paper citato? Vorrei leggerlo.
Italiano
0
0
0
75
Junior B.
Junior B.@bontoJR·
@Cr1st14nM3s14n0 @dottorpax @diewolf Si, ma lo fa mettendo l’accento sull’accuracy e parte della presupposto che ci siano solo due scelte e parla chiaro che non ci sono vie di mezzo. Io ho fatto notare che l’esempio secondo me non calza perché nel mondo reale non è un modello realistico.
Italiano
1
0
0
75
Pax
Pax@dottorpax·
Ispirato da un recente tweet di @Cr1st14nM3s14n0, ed evitando di complicare troppo (ad esempio, evito tutta la pippa sull'honest assessment, la convalida, il rebalancing). Immaginiamo di essere seduti su un’auto a guida autonoma. È sera, l’asfalto è bagnato, magari piove leggermente. Davanti a noi, qualcosa si muove sulla strada: un oggetto scuro, poco definito. L’auto ha pochi istanti per decidere cosa fare. Per il computer di bordo (sperando che la decisione sia solo locale), la domanda è sempre la stessa: “Quello che vedo è un pericolo oppure no?” Se è pericoloso → STOP. Se non lo è → VAI. Fine. Due scelte, nessuna via di mezzo. Sono ancora oggetti manichei, in fondo. Immaginiamo di avere un archivio di situazioni che l’auto ha già visto, una specie di memoria storica. Dentro ci sono 1000 casi. In 995 di questi, l’ostacolo era solo una busta di carta che volava o rotolava per strada, una cosa innocua che possiamo tranquillamente ignorare. Ma in 3 casi si trattava di una persona che attraversava la strada. In 2 casi, poi, c’era un muro, o comunque un ostacolo solido contro cui è decisamente meglio non andare a sbattere. Quindi, in questo nostro piccolo mondo osservato, le situazioni “tranquille” sono 995 su 1000. Quelle veramente pericolose sono solo 5. Poche, rare, ma diremmo decisive. Ora immaginiamo di costruire un modello banalissimo, quasi ridicolo. Un modello che “impara” una sola cosa dal passato: nella stragrande maggioranza dei casi l’ostacolo era una busta di carta, quindi conviene dire sempre la stessa cosa: VAI. Sempre. Qualunque cosa appaia davanti. (È un errore molto più comune di quello che possiate pensare). Se applichiamo questo “modello” ai nostri 1000 casi, succede più o meno questo: nei 995 casi in cui l’ostacolo è una busta, dire VAI è giusto. L’auto passa, tutto bene. Nei 3 casi in cui compare una persona, dire VAI è tragicamente sbagliato. Nei 2 casi in cui c’è un muro, dire VAI è di nuovo una pessima idea. Ma se guardiamo solo i numeri, abbiamo 995 decisioni corrette su 1000: una percentuale di successo del 99,5%! Se ci fermiamo a quel numero, il modello sembra praticamente perfetto: “Ha ragione quasi sempre!”. Eppure, basta un attimo di buon senso per accorgerci che è il peggior modello possibile: non riconosce mai un vero pericolo. Non è certo il modello da generalizzare e portare in produzione. Sbaglia il 100% dei casi critici. Ogni singolo errore corrisponde a una persona investita o a un incidente grave. Il problema è che la bellissima percentuale del 99,5% è gonfiata dai casi facili, dalle buste di carta, cioè da tutto ciò che, in fondo, non ci preoccupa davvero. L’accuracy, quella percentuale di previsioni “giuste”, mette sullo stesso piano la busta di carta e la persona. Un errore su una busta vale quanto un errore su un pedone. Ma noi, istintivamente, sappiamo che non è così. Sbagliare una busta è fastidioso al massimo, sbagliare una persona è una tragedia. Il numero, da solo, non fa questa distinzione. Per rendere il quadro ancora più chiaro, immaginiamo ora il modello opposto. Quello iper-prudente, ansioso, terrorizzato dall’idea di sbagliare. Questo secondo modello decide che il mondo è un posto pericolosissimo e che non si è mai troppo prudenti. La sua regola è semplicissima: fermiamoci sempre. Qualsiasi cosa vediamo, STOP, inchiodiamo. In questo caso, i 5 scenari davvero pericolosi vengono tutti riconosciuti come tali: persona o muro, comunque l’auto si ferma. Nessun incidente, dal punto di vista della sicurezza funziona alla grande. Ma c’è un piccolo dettaglio: l’auto si ferma anche davanti alle 995 buste di carta. Risultato: sicurezza massima, ma esperienza d’uso disastrosa. Non arriviamo mai da nessuna parte, ogni situazione è un’emergenza. Se facciamo i conti, il modello ansioso fa pochissime previsioni “giuste” in senso numerico. E quindi la sua percentuale di successo sarà bassissima. Ma dal punto di vista della sicurezza è molto meglio del primo. E qui sta l'apparente contraddizione: il modello con l’accuracy altissima è pericoloso, quello con l’accuracy bassissima è sicuro (anche se impraticabile). Questo ci dice una cosa molto semplice: quel numerone in percentuale (99,5%), preso da solo, non basta a raccontare la storia. MAI. Nella vita reale, non tutte le situazioni pesano allo stesso modo. E non tutti gli errori hanno le stesse conseguenze. Fermarci per una busta di carta è un falso allarme: ci fa perdere un po’ di tempo, ci infastidisce, forse ci fa venire voglia di insultare l’auto o i programmatori, ma non cambia il corso delle cose. Certo, fermarsi sempre diventa ridicolmente impraticabile. Investire una persona in mezzo alla strada, però, è un errore che cambia tutto. Se mettiamo insieme tutte queste cose in un unico numero, senza differenze, stiamo mescolando pere e mele. La stessa logica vale in tanti altri ambiti. In medicina, sbagliare una volta su cento può voler dire semplicemente confondere un raffreddore con un’allergia, ma può anche voler dire non riconoscere un tumore raro (e neppure troppo). In banca, un errore su mille può essere concedere un piccolo prestito di troppo, oppure lasciar passare una frode gigantesca. Nei sistemi di allerta per disastri naturali, ignorare un segnale raro può equivalere a non evacuare una zona prima di un’alluvione. Gli eventi rari ma estremi sono pochi, spesso quasi invisibili nelle statistiche “medie”, ma sono quelli che contano di più. Se il nostro modello è bravissimo nei casi banali e fallisce proprio su quelli cruciali, il numero che misura la sua bravura rischia di essere una specie di trucco ottico: ci mostra il quotidiano, ci nasconde la potenziale catastrofe. Un buon modello deve saper gestire molte situazioni differenti. Svilupparlo non è banale, è una scienza, ma anche un po' un'arte. Non credete a chi vi dice che tutto è ottenibile in modo data-driven, perché poi vi schiantate o non vi muovete più. E allora, la prossima volta che qualcuno vi dirà: “Questo modello è fantastico, ha il 99% di accuracy”, forse vi tornerà in mente l’auto che non si ferma mai. Potrete chiedervi: “Sì, ma su cosa ha ragione? E soprattutto: su cosa ha torto?”. Perché tra una busta di carta e una persona in mezzo alla strada, un algoritmo tende a contarle come due casi qualsiasi. Un algoritmo non ha, di per sé, un sistema valoriale. Ma noi, al posto di guida, sappiamo benissimo che non valgono per niente lo stesso. Un'altra volta vi (ri)parlo di sensibilità, specificità e compagnia cantando. E magari anche del paradosso della predizione.
Italiano
23
67
394
18.5K
Junior B.
Junior B.@bontoJR·
@dottorpax @diewolf @Cr1st14nM3s14n0 Perché inutile? Io sono curioso di sapere perché considera l’esempio oncologico errato? Scomodiamola pure la classificazione multinonimale se necessario, non credo si offenda :)
Italiano
1
0
0
109
Pax
Pax@dottorpax·
@bontoJR @diewolf @Cr1st14nM3s14n0 Controesempio errato, quello oncologico. Poi si potrebbe scomodare il come la classificazione multinomiale mappi sulla binaria, ma mi pare inutile per un tweet che parte con un chiaro disclaimer.
Italiano
2
0
1
138
Junior B.
Junior B.@bontoJR·
@dottorpax @diewolf @Cr1st14nM3s14n0 Sarebbe bastato prendere un esempio più classico usato in diversi libri: il rilevamento di un tumore. “C’é” o “non c’é”, problema con due soluzioni ben definite e che anche qui ha un forte impatto sotto il profilo umano in caso di errore con gravi conseguenze.
Italiano
1
0
0
154
Junior B.
Junior B.@bontoJR·
@dottorpax @diewolf @Cr1st14nM3s14n0 Chi legge senza dimestichezza ora può pensare che un sistema a guida autonoma usa modelli che decidono “vado” o “mi fermo” quando la realtà è molto più complessa.
Italiano
1
0
0
120
Junior B.
Junior B.@bontoJR·
@diewolf @dottorpax @Cr1st14nM3s14n0 Concordo. Esempio scelto male per diversi motivi, ma quello su tutti che mi lascia basito è che si è scelto un problema che nel mondo reale non è binario per spiegare un concetto che richiede due possibilità di risultato ben definite, quando ci sono un sacco di altri esempi.
Italiano
1
0
0
153
diego
diego@diewolf·
@dottorpax @Cr1st14nM3s14n0 Capito il punto accuracy alta può nascondere errori critici. Però l’esempio dell’auto autonoma è fuorviante: in automotive non potresti mai avere modelli che ‘dicono sempre VAI’ o ‘sempre STOP’, perché la Functional Safety lo rende impossibile già a livello di design.
Italiano
1
0
4
870
Junior B.
Junior B.@bontoJR·
@snkguzman Ma un confronto con Batistuta si può fare? Per curiosità….
Italiano
0
0
0
185
Saniok 🇦🇷
Saniok 🇦🇷@snkguzman·
vs Brasile (unica avversaria seria in Sudamerica) 🇧🇷📊 🏟️ 6 partite ❌ 0 gol ❌ 0 assist 🟨 1 cartellino giallo
Saniok 🇦🇷 tweet media
Italiano
2
30
517
21.1K
Junior B.
Junior B.@bontoJR·
@eleonora_aloise Se Federer avesse influenzato l’insegnamento oggi avremmo schiere di rovesci ad una mano, invece sono una decina nei top 100 e meno di 50 nei primi 1000. Con Rafa avremmo terraioli con topspin aggressivo, invece gli specialisti sono in via d’estinzione purtroppo.
Italiano
0
0
0
28
Junior B.
Junior B.@bontoJR·
@eleonora_aloise Ma non è vero che i giocatori ne cambiano la direzione (almeno dal dopo Borg), altrimenti avremmo sempre numeri uno molto simili negli anni, invece ogni generazione si adatta giustamente all’evoluzione naturale dei materiali e dei campi.
Italiano
1
0
0
29
Eleonora Aloise
Eleonora Aloise@eleonora_aloise·
Il tennis evolve a priori, ma certi giocatori ne cambiano la direzione. È successo con Rafa, prima di lui certe rotazioni non esistevano nelle scuole tennis. Si può capire quando una persona ha cominciato a giocare dall’altezza in cui colpisce la palla di dritto, per esempio. Anche Nole, certo, la sua influenza aveva più a che fare con la tecnica aliena che con lo stile. Diciamo che i bambini sognavano di essere Nadal e da adolescenti Djokovic. Con Roger è stato diverso, per essere come lui le scuole tennis potevano al massimo organizzare gite a Lourdes per immergere la mano nell’acqua benedetta. Per me, la generazione dei ‘90 era troppo vicina per interiorizzare questo cambiamento, che invece ha segnato molto quella successiva. Sono rimasti incastrati fra due epoche, passando dall’essere tennisticamente troppo giovani a troppo vecchi, senza diventare mai adulti. La capacità di modificare l’insegnamento oggi ce l’hanno Carlos e Jannik, per gli stessi identici motivi e nelle stesse forme di Nadal e Djokovic. Però, complice una enorme esposizione del tennis e una triplicata rapidità dei processi di cambiamento e apprendimento, è più facile che la generazione successiva sia in grado di acquisire i metodi e trovare contromisure, chissà. Rimane il fatto che i talenti generazionali sono fortunate gocce nel mare, ma è bello sapere che una sola goccia può decidere il movimento delle onde. #tennis #sinner #janniksinner
paolo bertolucci@paolobertolucci

I due in fuga

Italiano
45
19
455
34.2K
Junior B. retweetledi
Greg Joswiak
Greg Joswiak@gregjoz·
Our public betas are out! You can get a look at the new software features coming to your Apple devices this fall, including the new design with Liquid Glass, powerful Apple Intelligence capabilities, and so much more.
English
67
123
1.6K
87.1K
Pax
Pax@dottorpax·
@marmadridd Fino a prima del Covid qui sopra si discuteva, e pure bene. Ho conosciuto tante persone interessanti, poi incontrate anche nel reale. Poi qualcosa si è rotto, sono aumentati i bot, gli insulti e compagnia.
Italiano
3
0
8
362
Pax
Pax@dottorpax·
Basta allontanarsi qualche giorno da questa piazza virtuale per aver conferma, tornando, del degrado del latrato* pubblico online, ormai fatto di 3 o 4 temi ripetitivi, tra fazioni polarizzate e le ossessioni maniacali di alcuni. * Dibattito mi pare eccessivamente ottimista.
Italiano
5
10
158
9.7K
Junior B.
Junior B.@bontoJR·
@grok Pisacane ha qualche speranza di salvarsi il prossimo anno con il Cagliari in Serie A? O finirà con Di Francesco in B? Chi altro ha buone chances di retrocedere? Dicci, dicci!
Italiano
0
0
0
38
C’era una volta Jane Doe
C’era una volta Jane Doe@_sam_sa_ra·
Al Genius ed era tecnico HW in un Apple Store? Anche io lavoravo alla Apple, questa funzione è uscita con IOS 9. Non è assolutamente vero che la batteria esplode se caricata con il RE attivo. Gli IPhone che “esplodevano”erano i 5C (quelli colorati) senza nemmeno che fossero in carica. Si disattiva automaticamente quando la batteria è carica, pensa!
Italiano
1
0
7
662