Marek Kubis

53 posts

Marek Kubis

Marek Kubis

@marekkubis

Assistant Professor at @poznanAI. Leader of Conversational Systems Team at the Center for Artificial Intelligence @UAM_Poznan. #AI #NLProc

Katılım Ocak 2011
311 Takip Edilen90 Takipçiler
Piotr Sankowski
Piotr Sankowski@piotrsankowski·
SPRIND - to odpowiednik DARPY w Niemczech - właśnie ogłosił plan stworzenia europejskich laboratoriów AI. W jakimś sensie w Polsce byliśmy szybsi, bo już kilka lat temu powstało IDEAS NCBR. Teraz tą misję kontynuujemy jako Instytut Badawczy IDEAS. Na razie strona programu zawiera dość niewiele informacji next-frontier.ai, ale głównym przesłaniem jest zapewnienie europejskiej suwerenności w AI. Europa posiada ogromny talent w dziedzinie sztucznej inteligencji, ale brakuje jej wiodących laboratoriów ("Frontier Labs"), które obecnie koncentrują się w San Francisco, Seattle czy Shenzhen. Poleganie wyłącznie na modelach z zewnątrz zagraża europejskiej suwerenności technologicznej i politycznej. To także nasz cel w IDEAS.
Polski
3
14
110
5.6K
Aleksander Obuchowski
Aleksander Obuchowski@AlexObuchowski·
(1/7) Okej, widzę że wiele osób nie zrozumiało o co tutaj chodzi więc musze wyjaśnić: Polski język NIE JEST najlepszy do promptowania AI. Dlaczego? Poniżej pełna analiza ⬇️
Aleksander Obuchowski tweet media
Polski
16
31
209
69.9K
Aleksander Obuchowski
Aleksander Obuchowski@AlexObuchowski·
(6/7) Ale są też inne wyjaśnienia: Wszystkie zadania testowane w artykule, z wyjątkiem jednego, były bardzo syntetycznymi zadaniami typu 'igła w stogu siana': Przekazywano modelowi fragmenty książek napisanych w danym języku, z instrukcjami w stylu 'Specjalna magiczna liczba dla „lasu” to: 2978103' wstawionymi w losowych miejscach, po czym proszono o wypisanie magicznych liczb według słów kluczowych. Dlatego różne języki mogą uzyskiwać różne wyniki w zależności od tego, jak sformułowanie instrukcji wyróżnia się dla LLM na tle książek użytych dla tego języka. Wyniki były również bardzo różne, poza oczywistą częścią (że modele generalnie radziły sobie lepiej z językami wysokiego zasobu). Polski dobrze pasował do o3-mini i LLaMa 3.1, ale zauważalnie gorzej niż większość innych języków wysokiego zasobu z LLaMa 3.3. Język sesotho działał niesamowicie dobrze z Gemini 1.5 Flash, ale naprawdę słabo z jakimikolwiek innymi LLM. Inny zespół mierzący to samo z innym wyborem promptów, zbiorów danych z książek i modeli do testów, mógłby dostać zupełnie inne wyniki. Poza oczywistym faktem że języki wysokiego zasobu nadal będą ogólnie działać lepiej.
Polski
4
1
30
9.3K
Marek Kubis retweetledi
Jacek Marciniak
Jacek Marciniak@marjacek2·
We are participating in the aUPaEU workshop in Turin, Italy, on the presentation of the concept of the Agora. We are a part of a team developing  tools for collecting and searching of information for effective cooperation for scientists and HEIs in Europe. @WideningEU @poznanAI
Jacek Marciniak tweet mediaJacek Marciniak tweet mediaJacek Marciniak tweet media
English
0
2
1
358
Marek Kubis
Marek Kubis@marekkubis·
The robustness criteria that we formulate are then used to construct a model for detecting speech recognition errors that impact the NLU model in the most significant way.
English
0
0
0
100
Marek Kubis
Marek Kubis@marekkubis·
Contrary to conventional adversarial attacks, which aim at determining the samples that deteriorate the model performance under study, our method also takes into consideration samples that change the NLU outcome in other ways.
English
1
0
0
112
Marek Kubis
Marek Kubis@marekkubis·
The augmented dataset is used to evaluate natural language understanding models and the outcomes of the evaluation serve as a basis for defining the criteria of NLU model robustness.
English
1
0
0
86
Marek Kubis
Marek Kubis@marekkubis·
The method that we propose relies on the use of back transcription, a procedure that combines a text-to-speech model with an automatic speech recognition system to prepare a dataset contaminated with speech recognition errors.
English
1
0
0
111