The deepest dive into Transformers you'll ever get
09-22, 14:15–15:00 (Europe/Berlin), Seminarraum
Language: Deutsch

Ein Talk über wie und warum Transformer-LLMs arbeiten.


Ein Paper veröffentlicht in 2017 mit dem Namen "Attention Is All You Need" veränderte die Welt, aber wie funktioniert GPT und noch wichtiger warum funktioniert es? In diesem Talk werden wir tiefen in die Transformer-Architektur eindringen und einen Blick unter die Haube werfen.

Working with Attention. It's all we need.

Letzter Datenspuren Talk: https://media.ccc.de/v/ds23-194-chatgpt-dialoge