Březnový newsletter 2025

Milí členové a příznivci efektivního altruismu v Česku,

s radostí mohu oznámit, že spolek má nové posily ve vedení! Z náročného výběrového řízení vzešli dva kandidáti, kteří spolku dodají novou energii a vytříbí směr – Marek Dědič a Martin Vaněk.

Marek odvážně naskakuje od dubna do role co-directora, kde bude přebírat většinu mých odpovědností. Martin nastupuje jako director of strategy a bude se podílet na našem klíčovém směřování. Abyste se s nimi (nebo námi celkově) mohli seznámit, budeme pořádat v dubnu piknik ve Stromovce (fbweb). Pokud jste mimopražští, můžete se s nimi potkat na EAGx v květnu.

Já minimálně do června zůstávám ve své roli, ale budu se věnovat primárně EAGxPrague. Vojta a Kuba zatím zůstávají, ale naše úvazky jsou nejisté. Mějte tedy s námi trpělivost, připravují se věci.

Pokud ještě nevíte, co očekávat od EAGxPrague, tak si můžete přečíst můj EA forum post. Tyto konference jsou poměrně výjimečné tím, jak velkou hodnotu se na nich běžně dá získat z konverzací jeden na jednoho. Kvalita konference také stojí na tom, že je společným dílem lidí, co se do hloubky zajímají o různá témata –⁠⁠⁠⁠⁠⁠ věnujte kdyžtak pozornost sekci o zapojení. Těšit se zatím můžete na přednášející z organizace GovAI, workshopy od AIM research a na pátečním Opportunity fair se můžete setkat třeba se zástupcem inkubátoru Catalyze Impact. Pro další updaty sledujte během dubna naše sociální sítě.

Protože příští úvodník vám již přinese Marek, tak vám naposledy přeji krásný příchod jara a za sebe se moc těším na novou energii v týmu!

Hana Kalivodová

hana.kalivodova@efektivni-altruismus.cz | Calendly

Noví tahouni ve spolku – seznamte se

Marek Dědič

Marek Dědič

Marek sice nebyl v přímém kontaktu se spolkem, ale v rámci EA myšlenek se už pár let pohyboval a má zkušenosti s vedením neziskových organizací. Je členem správní rady Junáka a vedl různé týmy převážně vzdělávacích akcí. Kromě toho dělá Ph.D o strojovém učení a počítačové bezpečnosti na ČVUT.

Martin Vaněk

Martin Vaněk

Martin dřív vedl neziskovku FYKOS pořádající fyzikální soutěže. V rámci EA byl jeden rok ambasadorem Giving What We Can pro Prahu a podílel se na organizaci FABRIC (ESPR) kempů.

Zapojte se do organizace EAGxPrague

EAG(x) konference nejsou ani pro účastníky pasivní záležitost. To už mnozí víte. Konference z velké části stojí na dobrovolnících. Letos jdeme v kolaboraci dále než obvykle a zapojit se lze různými způsoby:

      • Moderovat nějaké téma
      • Organizovat meetup
      • Clusterovat a matchmakovat účastníky podle jejich vyplněných preferencí
      • Přispět kreativními nápady na páteční zábavní program či jiné konferenční speciality
      • Také můžete konferenci vylepšit například fundraisovaním na věci, na které nezbyl budget –⁠⁠⁠⁠⁠⁠ např. večeři pro dobrovolníky, přednášející nebo extra stickerky
      • V květnu plánujeme pronajmout coworking, kde můžete uspořádat své akce pro návštěvníky konference před a po ní
      • Sbírat na jedno místo relevantní zdroje, reporty a příležitosti (např. zmiňované v přednáškách), aby byly snadno dostupné všem účastníkům

Ozvěte se mi nebo se přidejte do našeho Slacku, kde máme kanál pro předkonferenční skupinu na speciální operace.

Do konce března můžete navrhnout obsah.

PS: Pokud se chcete jen podívat, zda vám sedí náš úhel pohledu, nenechte se odradit. Rádi vás přivítáme i tak. Nicméně s čím více otázkami přijdete, tím více si odnesete.

Pozvánky na akce

Další konference

Michal Keda považuje za zajímavé

Blanka Havlíčková napsala zajímavý text o nejistotě, o forecastingu (prognostice) a možných epistemických poučenchí z pandemie covidu. Pěkně popisuje, proč by měli ve veřejné debatě mít větší slovo expertní forecasteři, kteří nemusí být nutně odborníky v partikulárním oboru aktuální společenské debaty.

Jáchym Fibír napsal dobrý úvodní text představujícímožné problémy, pokud opravdu vytvoříme AI chytřejší než člověk. Představuje jak technické, tak společenské výzvy a následně i dopady takovéto události.

Vox a jejich podcast Unexplainable vydává minisérii o umělé inteligenci. První dva díly popisují spory mezi skupinami, které se často označují jako “AI Doomers” a “AI ethics”. Třetí díl představuje efektivní altruismus od jeho myšlenkových prapočátků v textech Petera Singera až po jeho aktuální značné zaměření na AI safety. Přestože mám jako efektivní altruista jistou předpojatost vůči některým pasážím, přijdou mi epizody jako dobrá sonda do těchto témat a debat. (Čtvrtý a poslední díl série v době psaní tohoto textu ještě nevyšel.)

William MacAskill aktuálně přemýšlí nad technologickým vývojem v době umělé inteligence. V paperu o inteligenční explozi nabízí představu, že s AI se může následujících 100 let běžného technologického pokroku zkoncentrovat do 10 let pokroku s AI. V textu řeší, zda se s takto rychlým technologickým pokrokem dokážeme vyrovnat jako jednotlivci a společnost a jaké konkrétní výzvy to přinese.

Tezi MacAskilla podporuje také paper v Nature, vydaný organizací METR. Z jejich analýz vychází, že každých 7 měsíců se zdvojnásobuje časový horizont či náročnost, v rámci které jsou pokročilé AI schopné řešit úkoly. Zatímco první velké jazykové modely dokázaly krátce odpovídat na některé otázky nebo jednoduše pracovat s textem, dnes dokážou naprogramovat docela složité úkoly či udělat kvalitní rešerši na zadaný problém. Jinými slovy jsme se od úkolů, které by lidem zabraly několik sekund, během pár let dostaly k úkolům, které zaberou spíše desítky minut.

Vzhledem k existenci dalších trendů ohledně zvyšování výkonu čipů, množství pěněz investovaných do tréninku a zlepšovaní algoritmů si lze snadno představit, že schopnosti AI systémů se budou také dále zlepšovat. Měřit časový horizont úkolů, které je AI schopno vyřešit, přináší zajímavý náhled – na rozdíl od přístupů, které hodnotí jen počet bodů získaných v testech, například z matematiky, obecných znalostí nebo logických chytáků.

Příležitosti

  • Centre for Effective Altruism (organizace zaměřená na efektivní altruismus) nabízí pozici účastníka programu In-Depth EA Program. Program je vzdálený, probíhá 8 týdnů s týdenními 1,5hodinovými diskusemi v malé skupině. Deadline 6. 4.
  • ML Alignment & Theory Scholars (výzkumný program zaměřený na bezpečnost umělé inteligence a alignment) nabízí pozice Summer 2025 Research Scholars. Deadline 18. 4.
  • Pivotal Research Fellowship (výzkumný program zaměřený na bezpečnost umělé inteligence) nabízí pozici Research Fellow. Program probíhá v Londýně (9 týdnů) a zahrnuje stipendium £5,000, stravu a podporu s ubytováním. Deadline 9. 4.
  • Safe AI Forum (nezisková organizace zaměřená na globální spolupráci v oblasti minimalizace rizik umělé inteligence) nabízí pozice Research Fellow / Senior Research Fellow / Special Projects Fellow. Fellowship trvá 6–⁠⁠⁠⁠⁠⁠12 měsíců s možností prodloužení, práce je plně remote.
  • Cambridge ERA Fellowship (výzkumná organizace zaměřená na snižování rizik spojených s pokročilou umělou inteligencí) nabízí pozici Summer Fellow. Program probíhá v Cambridge, UK (8 týdnů od 29. června 2025). Zahrnuje stipendium, ubytování, stravu a dopravu.
  • BlueDot Impact hledá lektory pro kurzy bezpečnosti AI, kteří povedou diskuze s účastníky o klíčových tématech v oblasti AI, a to v plně flexibilním, vzdáleném formátu s možností dlouhodobé spolupráce a výdělku založeném na počtu vedených skupin.
  • METR (dříve ARC Evals) nabízí pozici Senior Software Engineer.
  • Forecasting Research Institute (výzkumná organizace zaměřená na forecasting) nabízí několik pozici v různých oborech.

80,000 Hours radí lidem, kteří hledají práci s vysokým pozitivním dopadem. Pokud přemýšlíte o pozici s dopadem, velmi doporučujeme se přihlásit zde na konzultaci zdarma.

Další příležitosti můžete najít v kanálu #opportunities, na našem slacku.