Rasmus Toivanen

3.8K posts

Rasmus Toivanen banner
Rasmus Toivanen

Rasmus Toivanen

@RasmusToivanen

More generalist than specialist. Industrial engineer turned into ML. Currently AI CTO @RecordlyData. Training Finnish-LLMs end-to-end with @aapo_tanskanen

Finland Katılım Nisan 2011
2.3K Takip Edilen663 Takipçiler
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@IgorCarron Great, looks promising! Now can you try to get your model to Azure/GCP model gardens (Some/most enterprises prefer those, hard to push any external APIs for some enterprises) or so if not already there. And please expand benchmark coverage to more languages and benchmarks 💪
English
0
0
1
42
Igor Carron
Igor Carron@IgorCarron·
Sure thing! 1⃣You can test it here: huggingface.co/spaces/lighton… 2⃣It's been very favorably compared to Azure Doc Intelligence by Jonas Wacker → github.com/joneswack/ocr-… 3⃣Our API is live and early access is at: lighton.ai/pricing
Rasmus Toivanen@RasmusToivanen

@IgorCarron @LightOnIO While I say great job as European, and while impressive I would not be banging my chest on single benchmark, kinda niche thing. Get SaaS API (If you do not already) and tell you are outgrowing something like Azure Doc intelligence in EU then that would be great

English
1
1
13
1.7K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@IgorCarron @LightOnIO While I say great job as European, and while impressive I would not be banging my chest on single benchmark, kinda niche thing. Get SaaS API (If you do not already) and tell you are outgrowing something like Azure Doc intelligence in EU then that would be great
English
1
0
1
1.8K
Igor Carron
Igor Carron@IgorCarron·
Everyone told us the AI race was over. That Europe🇪🇺 missed it. That you need $10B clusters and closed-source moats to compete. Then @LightOnIO's LightOnOCR-2 -1B parameters, open-source, running on a single GPU you can put on your desk- just beat OpenAI GPT-5 mini, Anthropic Claude Sonnet, Google Gemini 2.5 Flash, Zhipu GLM-4.5V, and DeepSeek-OCR on table extraction. The work that actually matters. Not Silicon Valley 🇺🇸 Not Shenzhen🇨🇳 Not Beijing 🇨🇳 Not Hangzhou 🇨🇳 From Paris🇫🇷 ...with love 💕 The race isn't over. It never was.
Igor Carron@IgorCarron

x.com/i/article/2037…

English
21
52
424
46.3K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@sudoingX RTX 4080. Currently focusing on building "WebGPU app platform or some hobby project where I try to run different open source / our Finnish AI research models with WebGPU"
Rasmus Toivanen tweet media
English
0
0
0
148
Sudo su
Sudo su@sudoingX·
i just became a mod of x/LocalLLaMA. if you're running local models on your own hardware and want in, the community is open. pinned and highlighted on my profile. approving members starting today. drop your setup below and i'll get you in. 3060, 3090, 4090, 5090, AMD, whatever you're running. all welcome. if you're hitting issues with hermes agent, llama.cpp, model selection, configs, i'm here. let's make local AI accessible for everyone.
Sudo su tweet media
Sudo su@sudoingX

let me get you started in local AI and bring you to the edge. if you have a GPU or thinking about diving into the local LLM rabbit hole, first thing you do before any setup is join x/LocalLLaMA. this is the community that will help you at every step. post your issue and we will direct you, debug with you, and save you hours of work. once you're in, follow these three: @TheAhmadOsman the oracle. this is where you consume the latest edges in infrastructure and AI. if something dropped you hear it from him first. his content alone will keep you ahead of most. @0xsero one man army when it comes to model compression, novel quantization research, new tools and tricks that make your local setup better. you will learn, experiment, and discover things you didn't know existed. @Teknium maker of Hermes Agent, the agent i use every day from @NousResearch. from Teknium you don't just stay at the frontier, you get your hands on the tools before everyone else. this is where things are headed. if you follow me follow these three and join the community. you will be ahead of most people in this space. if you run into wrong configs, stuck debugging hardware, or can't get a model to load, post there so we can help. get started with local AI now. not only understand the stack but own your cognition. don't pay openai fees on top of giving them your prompts, your research, and your most valuable thinking to be monitored and metered. buy a GPU and build your own token factory.

English
328
43
818
60.8K
0xSero
0xSero@0xSero·
One correction I have had Sponsorships from Lambda, prime intellect and HotAisle Which I am very grateful for. But yes pls compute 🫡
Sudo su@sudoingX

this guy has 29 models on huggingface at page 2 ranking. no lab behind him. no sponsorship. $2,000 from his own pocket on GPU rentals. he compressed GLM-4.7 to run on a MacBook and quantized Nemotron Super the week it dropped. all public. all free. nvidia is a trillion dollar company with hundreds of teams but they are not the ones quantizing models middle of the night and pushing them out before sunrise. if nvidia stopped tomorrow their employees stop working. people like @0xSero would not. that is the difference between a paycheck and a mission. @NVIDIAAI you talk about making AI accessible. the people actually doing it are right here. 29 models deep burning their own compute with no ask except more hardware to keep going. you do not need to build another program. just look at who is already building for you. one GPU to this man would produce more public value than a hundred internal sprints. i am not asking for charity. i am asking you to invest in someone who already proved it.

English
10
15
320
12.9K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@leerob Apology would have been great, this is not it. Same things happened with earlier models. Maybe third time is the charm. Already have been running CC besides Cursor both work and hobby projects. This is one step closer to ditching Cursor
English
0
0
1
43
Lee Robinson
Lee Robinson@leerob·
Yep, Composer 2 started from an open-source base! We will do full pretraining in the future. Only ~1/4 of the compute spent on the final model came from the base, the rest is from our training. This is why evals are very different. And yes, we are following the license through our inference partner terms.
Fynn@fynnso

was messing with the OpenAI base URL in Cursor and caught this accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast so composer 2 is just Kimi K2.5 with RL at least rename the model ID

English
356
203
2.8K
1.4M
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@Pellehyppaaja @aliomarFIN @Stickstrom Sehän toimii terminaalissa joita IDEjen sisällä voi toki ajaa tai sitten löytyy myös extension jolla saa samanlaisen kokemuksen kuin cursorissa keskusteluikkunan kautta. Hyvä combo!
Suomi
0
0
1
21
Stickström
Stickström@Stickstrom·
En ole eläessäni koodannut mitään. Minulla ei ole mitään käsitystä miten sitä tehdään, miten edes aloitetaan tai millä ohjelmalla. Viimeisen kuukauden ajan olen vibe-koodannut viikonloput ja illat. En muista milloin olisin kokenut vastaavaa luomisvimmaa. Olen täysin ällistynyt siitä, mihin kykenen Claude Coden ja Lovablen yhteistyöllä. Yritän avata tätä tarkemmin. Olen luonut pari työkalua omalle alalleni, joista toinen on täysin uudenlainen ja uusi tapa ajatella digitaalista asiakaskokemusta. Sen on tarkoitus lähteä testikäyttöön oikeissa tilanteissa 1kk sisään. Toinen työkalu on korvaamassa Excelillä tehdyn kankean version, joka on yleinen standardi alallamme. Tästä työkalusta on olemassa samankaltaisia softia, joista pidämme, mutta ne maksavat satoja euroja kuukaudessa per käyttäjä. Meillä ei ole siitä syystä voitu näitä ostaa. Minä koodasin 5 tunnissa ekan version, joka on ihan oikeasti jo parempi meidän käyttötarkoitukseen. Tämä mennee liveksi parin viikon sisään meillä. Olen löytänyt todella hyvän tavan työskennellä: 1. Minulla on visio, näkemys ja tahtotila siitä mitä haluan luoda. 2. Jos olen tehnyt Lovablella jo ensimmäisen version tuotteesta, lataan koko sen koodikannan (vai mikä on oikea termi, index?) ja pyydän Claude Coden analysoimaan koodin laadun, turvallisuuden ja tekemään tuotteesta paremman. 3. Claude Code antaa mulle huippupromptit, jotka annan Lovablelle. Kun Lovable toteuttanut tehtävän, annan Lovablen kommentit Claudelle. Ja näin keskustelu etenee ja minä seuraan reaaliajassa kun tuote valmistuu. Claude Code valmisti sivuston infran sellaiseksi, että se on valmis ottamaan vastaan dataa meidän ERP-järjestelmästä ja teki ohjeet sitä varten. Laati myös security compliance -dokumentin Wordiin, jonka voin antaa asiakkaiden IT-osastoille ja jossa kerrotaan, miten järjestelmä on rakennettu. Huomenna istun alas meidän IT-vastaavan kanssa ja saan kuulla, että onko se koodi oikeasti laadukasta ja valmis asiakaskäyttöön. Claude sanoo että on. Haluan tietysti myös ymmärtää, onko security compliance -dokumentti riittävällä tasolla. Moni teistä tekee varmasti jotain vielä hienompaa, mutta minun on vaikea ymmärtää tätä henkilökohtaista kehityskaarta ja sen käyrän jyrkkyyttä. Uskomatonta. Ja ymmärrän nyt myös Pekkaa paremmin siinä, kun hän sanoi että softayhtiöihin ei voi tällä hetkellä sijoittaa tms. Samalla tämä on saanut pohtimaan asioita myös siltä kantilta, että mille ihmeen alalle minun tulisi kannustaa lapsiani suuntautumaan? En ole päässyt tässä ajatustyössä vielä kovin pitkälle. Kertokaa ihmeessä omista kokemuksistanne, jos on jotain jaettavaa!
Suomi
55
29
713
149.3K
Andrej Karpathy
Andrej Karpathy@karpathy·
I packaged up the "autoresearch" project into a new self-contained minimal repo if people would like to play over the weekend. It's basically nanochat LLM training core stripped down to a single-GPU, one file version of ~630 lines of code, then: - the human iterates on the prompt (.md) - the AI agent iterates on the training code (.py) The goal is to engineer your agents to make the fastest research progress indefinitely and without any of your own involvement. In the image, every dot is a complete LLM training run that lasts exactly 5 minutes. The agent works in an autonomous loop on a git feature branch and accumulates git commits to the training script as it finds better settings (of lower validation loss by the end) of the neural network architecture, the optimizer, all the hyperparameters, etc. You can imagine comparing the research progress of different prompts, different agents, etc. github.com/karpathy/autor… Part code, part sci-fi, and a pinch of psychosis :)
Andrej Karpathy tweet media
English
1.1K
3.7K
28.3K
10.9M
Ari Pöntinen
Ari Pöntinen@AriPntinen·
@MartinPaasi @HeikkiKonttinen Ei tuossa ole nauramista. Kuluja aiheuttaa satojen vanhojen ohjelmistojen integrointi ja datan konvertointi virheettömästi uuteen järjestelmään. Kelallakin on vanhimmat järjestelmät tod.näk. Kobolt-kamaa. Tämä kaikki pitää tehdä vielä vaiheittain niin, että kaikki toimii 24/7.
Suomi
2
0
8
719
Heikki Konttinen
Heikki Konttinen@HeikkiKonttinen·
Yle ihmettelee kun kelan tekoäly uudistus maksaa 10v reilut 500 miljoonaa, ei käy kuitenkaan mielessä että yle tuhlaa samassa ajassa 5000 miljardia😄 Pikku rahoja sanoisi sosialisti.
Suomi
54
78
1.2K
60K
Pekka
Pekka@vontuchman·
Supertekoäly tulee, halusimme sitä tai emme. Luulen että suurin osa ihmisistä taistelee vielä halpojen tekoälymallien kanssa ja kärsii normaaliusharhasta*. #pekka *tai voihan se olla niinkin, että allekirjoittanut on lukenut liikaa skifiä... 🤷‍♂️
Derya Unutmaz, MD@DeryaTR_

After what I’ve seen recently, I am now updating my prediction for the arrival of Artificial Superintelligence (ASI) to sometime in 2028 from 2030. ASI as defined by Nick Bostrom: intellect that is much smarter than the best human brains in practically every field.

Suomi
19
2
98
28.8K
Sami
Sami@samielsvad·
@petersarlin? Monesti mietin että missä kaikki suomalaiset tech tyypit ovat. Täällä heitä ei näy eikä näy myöskään Linkedinissä tai Youtubessa. Noin vuosi sitten viimeksi näin täällä koodarin väittämässä että AI ei ikinä tule oppimaan koodausta. Se oli ainutlaatuinen kohtaaminen. Toivoisin näkeväni heiltä enemmän ulostuloja
Suomi
6
0
8
573
Klaus
Klaus@klaus_koo·
Kuka suomalainen olisi paras asiantuntija puhumaan tekoälyn kehityksestä?
Suomi
44
0
19
5.5K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@klaus_koo Lower precision, mixture of experts, uudet attention mekanismit ja muut temput, parempi treenidatan käsittely, uudet RL menetelmät, pidempään mallien treenaus. Vielä kun otetaan tuo rautapuolen kehitys huomioon niin kehitys ollut huimaa
Suomi
1
0
2
295
Klaus
Klaus@klaus_koo·
Musk väittää, että tekoälyn kehitystä aliarvioidaan rajusti. Hänen mukaansa ongelma ei ole vain laitteisto (enemmän GPU:ita, datakeskuksia, sähköä), vaan algoritmit. Sama tietokone voisi ohjelmiston kehityksen ansiosta olla 100x älykkäämpi ilman lisärautaa. Lisäksi rauta paranee koko ajan. Tällainen kasvu ylittää ihmisen intuitiokyvyn. Muskin mukaan emme ole matkalla kohti superälyä vaan olemme jo kiihtyvällä käyrällä sen sisällä.
Dustin@r0ck3t23

Elon Musk just said the AI community is misunderstanding the math of superintelligence by two orders of magnitude. Not slightly off. Not directionally wrong. A hundred times off. Musk: “Most people in the AI community don’t yet understand. The intelligence density potential is vastly greater than what we’re currently experiencing.” Everyone is focused on the hardware race. Bigger data centers. More GPUs. Nuclear power plants built to feed the compute. That’s half the equation. Musk: “I think we’re off by two orders of magnitude in terms of intelligence density per gigabyte. That’s just algorithmic improvement. Same computer.” Read that carefully. Not more hardware. Not more energy. Not more capital. The same machine. A hundred times smarter. Through software alone. That’s before the hardware improvements compound on top of it. Musk: “And the computers are getting better. That’s why I think it is a 10x improvement per year type thing. 1,000 percent.” A thousand percent compounding annual growth rate in raw intelligence. A system that becomes 10x more capable every twelve months doesn’t follow a linear curve. It doesn’t follow an exponential curve that human intuition can track. It follows a curve that human intuition cannot simulate at all. In year one it’s 10x smarter. In year two it’s 100x. In year three it’s 1,000x. At that point, the gap between that system and a human brain is wider than the gap between a human brain and a calculator. This is the math the public isn’t running. The models aren’t just getting better. They are compounding on themselves at a rate that makes every previous technology curve look flat. Musk: “The intelligence density potential is vastly greater than what we’re currently experiencing.” We aren’t approaching superintelligence on the timeline most people imagine. We are already inside the curve.

Suomi
15
4
79
12.4K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@tuomaspeltomaki Ainiin ja tuohon että missä keskustelua: Koodiklinikan(avoin slack yhteisö) koneäly kanava AI Nordics Discord (avoin) discord.gg/RgKVztg3xU Ja sitten ehken Agentics Finland Whatsapp ryhmät: Agentics Suomi ja Teknologia varmaan sellaisia
Suomi
1
0
0
12
Tuomas Peltomäki
Tuomas Peltomäki@tuomaspeltomaki·
Kysymys, johon täällä ehkä joku osaakin vastata. Olen käyttänyt pari viikonloppua siihen että perehdyn missä open source -tekoälykehitys on meneillään, ja vääntänyt pari appia, jotka käyttävät llama.cpp, kokoro -tyylisiä malleja. 1/
Suomi
1
0
9
4.8K
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@tuomaspeltomaki @tonistubin @aapo_tanskanen erilaisten puhujien suhteen ettei olisi yliedistavia tapoja/tilanteita jossa puhua. Toki tässä vielä se että datan halusin olevan avoimesti lisensoitua. Olisi auttanut jos Yle & Co olisi kerännyt "Lahjoita puhetta" aineiston avoimena tutkimussettinä eikä 5k€ lisenssin taakse.
Suomi
0
0
1
23
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@tuomaspeltomaki @tonistubin @aapo_tanskanen Kyllähän siinä oma työnsä on noita kaivaa ja prosessoida oikeaan muotoon, testata erilaisia menetelmiä suodattaa laadukasta dataa. Osa datasta on puheentunnistusdataa jossa täsmäävät litteroinnit. Osa synteettisesti luotua monivaiheisesti suodattaen. Myös tärkeää tasapainottaa...
Suomi
1
0
1
19
Rasmus Toivanen
Rasmus Toivanen@RasmusToivanen·
@tuomaspeltomaki @tonistubin @aapo_tanskanen Avaatko tarkemmin millaisia käytännön ongelmia meinaat? Laatuhan ei aina ole timanttia mutta ihan hyvin lupaavan hyvin ainakin toimii. Pohjalla tuossa malli joka ilmaisee että olisi suomituki mutta ei se minua ainakaan vakuuttanut ja tuunaamalla parani ihan kivasti
Suomi
1
0
1
33
Tuomas Peltomäki
Tuomas Peltomäki@tuomaspeltomaki·
@RasmusToivanen @tonistubin @aapo_tanskanen Okei kiinnostavaa! Ja hieno toteutus toi chatterbox. Pystytkö yhtään valaiseen, minkälaisia käytännön ongelmia tollasessa suomi-tts:ssä on? Tää on nyt idioottikysymys, mutta siis toimiiks toi niin että otetaan pohjalle joku valmis malli joka osaa suomea, sen jälkeen finetune?
Suomi
1
0
0
32
Rasmus Toivanen retweetledi
peksu
peksu@p123415251·
@bingatupamaki Wolt jenkkeihin, Suunto kiinaan, Supercell kiinaan, Rovio saudeihin, Kotipizaa norjaan, Elektrobit saksaan, Rautaruukki ruotsiin, Vaasan ruotsiin, Rudus irlantiin, Taffel norjaan, Partioaitta ruotsiin, Silja viroon, Hackman ruotsiin, Oura jenkkeihin..
Suomi
40
135
1.2K
39.1K