Aleksander Obuchowski Profile picture
Współzałożyciel https://t.co/a9JrgXpEeh - Opensource projekty AI w medycynie CTO w https://t.co/fpagHocOH3 - Platforma AI dla szpitali
Apr 26 5 tweets 3 min read
(1/5) Najlepszym dowodem na to, że nie radzimy sobie w Polsce z dezinformacją, jest to, że 17-latka oszukała prezydenta, redakcje największych tytułów, jurorów konkursów i miliony Polaków.

10 marca 2026 r. prezydent Karol Nawrocki odznaczył Kornelię Wieczorek,Srebrnym Krzyżem Zasługi „za wybitne osiągnięcia w dziedzinie wynalazczości, za aktywność naukową i społeczną".

Wcześniej Time umieścił ją na liście „Girls of the Year 2025".

Forbes Women wpisał ją na listę 100 najbardziej wpływowych kobiet jako najmłodszą Polkę w historii.

National Geographic napisał, że „zmienia świat nauki".
Wiadomości TVP, Gazetapl, Super Express – wszyscy powtarzali tę samą historię o cudownym dziecku polskiej neurobiologii, „współpracującej z Cambridge", „badającej choroby neurodegeneracyjne", „wszywającej myszom czipy".Image (2/5) Problem w tym, że gdy w kwietniu anonimowi internauci na Reddicie i Wykopie postanowili zweryfikować te „osiągnięcia", posypało się jak domek z kart:

→ Zero publikacji naukowych. Google Scholar, PubMed, DOI – nic. Żadnego wkładu autorskiego.

→ Współpraca z Netherlands Institute for Neuroscience – w oficjalnej odpowiedzi mailowej instytut zaprzeczył, by Kornelia kiedykolwiek tam pracowała.

→ „Praca w Cambridge" – nie chodzi o Uniwersytet w Cambridge, tylko o Cambridge Centre for International Research, prywatną firmę oferującą płatne programy edukacyjne dla młodzieży, której nazwa odsyła do miasta, nie uczelni.

→ Nawóz Rhizobiotic, za który dostała laury – projekt zespołowy, którego liderką była jej koleżanka Diana Serjant.

→ Aplikacja do wykrywania raka skóry – pomysłodawcą był jej kolega Leon Krupa.

→ Po publikacji analizy na Reddicie post zniknął, autor usunął konto, a w sieci pojawiły się informacje o krokach prawnych podjętych wobec krytyków.Image
Mar 3 9 tweets 4 min read
Po wczorajszej premiesze małych Qwenów 3.5 rodzinka jest już w komplecie!
Dziewięć modeli w szesnaście dni, wszystkie natywnie multimodalne, wszystkie na Apache 2.0.
Rozmiary od 0.8B do 400B coś na laptopy, coś na stacje robocze i coś na serwery.

Oto co warto wiedzieć.👇 Image 2/ Flagowy model Qwen3.5 - jeden z najlepszych agentów open-source

Model flagowy ma 397B parametrów, ale aktywuje tylko 17B na token dzięki architekturze MoE z 512 ekspertami, z których 10 routowanych plus 1 współdzielony jest aktywnych przy każdym przejściu. To wprawia że model dużo szybciej generuje tekst. Model dekoduje 19 razy szybciej niż Qwen3-Max i jest od niego około 60% tańszy w obsłudze

Poprzendni model Qwen3-Max, który przekraczał bilion parametrów, nowy, mimo drastycznie mniejszego rozmiaru osiąga porównywalne lub lepsze wyniki.

Na benchmarkach Alibaba raportuje:
- 83.6 na LiveCodeBench v6,
- 91.3 na AIME26
- 88.4 na GPQA Diamond

Qwen wygrywa z GPT-5.2, Claude Opus 4.5 i Gemini 3 Pro w 80% testowanych kategorii.
Oczywiście to tylko bencharki ale trzeba przyznać że brzmi to conajmniej ciekawie.Image
Nov 7, 2025 8 tweets 4 min read
(1/8) Mamy nowy najlepszy LLM, ale nie jest to GPT-6 czy Sonnet 4.
To nowy open-source model od Moonshot (chińskiego startupu)
⬇️ Poniżej pełna analiza Kimi K2 Thinking: dlaczego jest najlepszy, co go wyróżnia, analiza architektury, i jak skorzystać z modelu Image (2/8) Co wyróżnia Kimi K2 Thinking?
Może wykonać do 200–300 wywołań narzędzi bez interwencji człowieka, rozumując spójnie na przestrzeni setek kroków, aby rozwiązać złożone problemy.

W Humanity's Last Exam (HLE), rygorystycznie przygotowanym, zamkniętym teście obejmującym tysiące pytań na poziomie eksperta z ponad 100 dziedzin, model osiągnął najlepszy wynik 44,9% z wykorzystaniem narzędzi do wyszukiwania, Pythona i przeglądania web, ustanawiając nowy rekordImage
Oct 22, 2025 6 tweets 3 min read
(1/6) Dlaczego ChatGPT głupieje kiedy zapytasz go emoji konika morskiego?
To bardzo ciekawe zjawisko które pokazuje jak LLMy działają w środku dlatego zachęcam co przeczytania pełnej analizy ⬇️ Image (2/6) Zacznijmy od tego że ChatGPT jest przekonany że istnieje emoji konika morskiego. Dlaczego? Powodów jest kilka,
Po pierwsze w internecie są ślady o tym że takie emoji istniało (np. pytania jak je znaleźć na iphonie) więc w zbiorze treningowym pojawiają się takie informacje.
Po drugie koncept jest dość naturalny wystarczy połączyć koncepty "seahorse" + "emoji".
Ponadto istnieją emoji innych zwierząt morskich więc dlaczego nie konika?Image