Language: Deutsch
09-22, 14:15–15:00 (Europe/Berlin), Seminarraum
Ein Talk über wie und warum Transformer-LLMs arbeiten.
Ein Paper veröffentlicht in 2017 mit dem Namen "Attention Is All You Need" veränderte die Welt, aber wie funktioniert GPT und noch wichtiger warum funktioniert es? In diesem Talk werden wir tiefen in die Transformer-Architektur eindringen und einen Blick unter die Haube werfen.
Working with Attention. It's all we need.
Letzter Datenspuren Talk: https://media.ccc.de/v/ds23-194-chatgpt-dialoge