Via Della Guardia

14.1K posts

Via Della Guardia

Via Della Guardia

@GuardiaVia

شامل ہوئے Ekim 2021
1.3K فالونگ197 فالوورز
Via Della Guardia
Via Della Guardia@GuardiaVia·
@pinchegorro tenes lo mejor de los dos mundos , no te quejes y conta que van a comer que queremos saber
Español
0
0
0
138
Eli Levy
Eli Levy@pinchegorro·
Los judíos que vienen a mi comunidad: - Gordo, por que no compraste Coca Light para el Kidush? Los cristianos que me leen por Internet:
Eli Levy tweet media
Español
14
10
215
3.2K
▪ Marina Bidondo ▪
▪ Marina Bidondo ▪@MariiiBidondo·
Que ganas tenia de sentirte!!!!!!! Mientras las chicas te hacen tu camita.. Miren su carita sin canula por ahora viene bien respirando solo.
▪ Marina Bidondo ▪ tweet media
Español
705
609
6.9K
48.5K
Via Della Guardia
Via Della Guardia@GuardiaVia·
@franb_16 Estoy muy en contra de jarry no entiendo que le ven , creo que daño una generación
Español
0
0
0
31
Francisco
Francisco@franb_16·
Alguien para ver Harry Potter este domingo.
Español
1
0
4
467
Karina Galperin
Karina Galperin@kgalperin·
Juego al tenis. Quiero sumar otro tipo de ejercicio entre semana. ¿Me recomiendan gimnasio (lo q acá llaman "entrenar") o pilates? Justifique su respuesta.
Español
44
2
15
11.2K
Giorgia Meloni
Giorgia Meloni@GiorgiaMeloni·
L’Italia ha chiesto e ottenuto in Europa, nell’ambito della revisione di medio termine della politica di coesione, un risultato molto significativo: la riprogrammazione di oltre 7 miliardi di euro, che saranno destinati alla competitività delle imprese italiane, alle misure per realizzare alloggi a prezzi calmierati e agli interventi sul fronte idrico ed energetico. L’Italia ha sempre sostenuto l’esigenza di maggiore flessibilità e semplificazione per garantire un utilizzo più efficace e concreto delle risorse europee. Obiettivo portato avanti dalla riforma delle politiche di coesione promossa dal Vicepresidente esecutivo della Commissione europea, Raffaele Fitto. Questo Governo continuerà a lavorare, come ha fatto fin dall’inizio, per mettere a terra le risorse europee e utilizzarle al meglio per sostenere lo sviluppo e la crescita della Nazione.
Giorgia Meloni tweet media
Italiano
1.4K
1.4K
14.1K
569K
Hernanii.
Hernanii.@HernaniiBA·
@FEscrutinio No me parece exacta la comparación. Si tu padre mata a alguien, nadie puede obligarte a vos como hijo a decirle "asesino", aunque lo sea. Ella pide algo personal, no que la sociedad o el sistema legal estén de acuerdo con ella.
Español
2
0
1
84
PlanB🩺⚕️
PlanB🩺⚕️@RCPavanzado·
@GuardiaVia @julswlker @rusosnith @DanielEchevar Y esa compañera de trabajo te dijo que no iba a ir a abuelas a hacerse el ADN porq un miembro de madres (QUE ES OTRO ORGANISMO) fue sospechosa de un hecho de corrupción? Jajajja que querés que te diga, es tan ridículo que no parece cierto
Español
1
0
0
28
Andrés Snitcofsky
Andrés Snitcofsky@rusosnith·
La nieta 127, así como el resto de los nietos restituidos, pudo elegir que hacer con la información que recibió y su identidad real. No así los 400 nietos que aun buscamos y son privados de esa opción por sus apropiadores
Fran@Franchuus95

Los testimonios de la nieta restituida número 127 son terribles. La convencieron de que sus padres eran unos loquitos de la guerra y que merecían morir y decidió quedarse con el apellido de su apropiador.

Español
8
697
6.7K
103.9K
PlanB🩺⚕️
PlanB🩺⚕️@RCPavanzado·
@GuardiaVia @julswlker @rusosnith @DanielEchevar O sea que un miembro de madres, que ya no está, tenía una causa por corrupción y para vos ya no sirven ni madres ni abuelas y lo pones al mismo nivel que robarse bebés? No tiene sentido seguir hablando con semejante pancho
Español
1
0
2
43
eduardo sleiman
eduardo sleiman@SleimanEduard1·
SEÑORA USTED TIENE EL MAYOR DE MI RESPETO
Español
43
382
1.9K
38.1K
Via Della Guardia
Via Della Guardia@GuardiaVia·
@HernaniiBA nada que sorprenda, ya sabiamos que no tenia luces. Ahora es momento de valorar el enfoque a las instituciones y reconocer que nuestro pais es muy joven y por lo tanto no estamos en condiciones de tener mandatos dobles, nos paso con los k, dejan tierra arrasada.
Español
0
0
1
211
Hernanii.
Hernanii.@HernaniiBA·
Demasiado enojado Adorni. Y el argumento “contesto en la justicia, no ante periodistas” es flojo.
Español
48
34
336
8.8K
Lils
Lils@julswlker·
@GuardiaVia @rusosnith @DanielEchevar Y no, sobre todo porque escribís como el culo y no se entiende, ya se que los gorilas son burros por naturaleza pero esto es demasiado.
Español
1
0
4
54
Via Della Guardia
Via Della Guardia@GuardiaVia·
@DanielEchevar @rusosnith Recuerdo uno, derivar dinero a entidades de derechos humanos para construir viviendas, que no se construyen, están exentas de impuestos etc
Español
2
0
0
197
Via Della Guardia ری ٹویٹ کیا
ae^((-(x-b)^2)/(2c^2))
ae^((-(x-b)^2)/(2c^2))@JohnGalt_is_www·
Que hermosa y util es el algebra lineal y los subespacios vectoriales tan injustamente odiados por los estudiantes Explicado simple, uno de los cuellos de botella de los LLMs es la memoria necesaria para almacenar en cache el resultado de varios productos de matrices, por eso no podemos correr grandes LLMs en un solo GPU casero, no le alcanza la vRAM Hay metodos de "quantizado" que comprimen (redondean) los pesos originales del LLM, justamente para que ocupen menos vRAM o memoria, pero terminan reduciendo la calidad del output TutboQuant plantea un esquema en 4 pasos sin tocar los pesos originales del LLM, o sea sin perder precision Paso 1, luego de calcular los K.V que es la primera multiplicaicon de matrices q hacen los LLMs, hacen una rotacion ortogonal (cambio de base), manteniendo el producto interno Paso 2, ahi si comprimen reduciendo de 16bit hasta 2 o 3bit Paso 3, durante la atencion Q.K, que es el segundo paso de multiplicacion de matrices que hacen los LLMs, se usan estas versiones comprimidas ahorrando muchisima vRAM Paso 4, reconstruyen el sesgo del resultado del paso 3, usando un corrector que solo ocupa 1bit Reduce mucho necesidad de vRAM, no reduce cómputo base, incluso agrega un peuqeño overhead, pero puede mejorar mucho la velocidad si estabas limitado por la RAM porq permite compresiones mucho mas agresivas (2bit) sin perder precision O sea, podrian correrse los modelos chinos top TIER en "solo" 128 gb de RAM al tope de su calidad
Google Research@GoogleResearch

Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI

Español
50
471
4.5K
233.5K
Via Della Guardia
Via Della Guardia@GuardiaVia·
@rusosnith Es muy doloroso y en el medio de ese dolor se metieron los k a hacer negocios, no da criticar a las víctimas
Español
1
0
0
301