Episode 172 - Miniserie Interpretierbarkeit - Mechanistic Interpretation: Die neuronale Blackbox verstehen

Knowledge Science - Alles über KI, ML und NLP

19-06-2024 • 36 mins

Send us a text

In dieser Episode unserer Miniserie "Interpretability" tauchen wir tief in die Welt der mechanistischen Interpretierung neuronaler Netze ein.

Sigurd Schacht und Carsten Lanquillon beleuchten die spannenden Forschungsansätze, die darauf abzielen, die Blackbox neuronaler Netze zu durchdringen und deren interne Funktionsweise zu verstehen.

Dabei erörtern sie, wie Mechanistic Interpretation als Bottom-Up-Ansatz helfen kann, neuronale Netze nachvollziehbar zu machen und welche Rolle diverse Konzepte wie der Residual Stream, Multi-Layer Perceptrons (MLPs) und Attention Heads dabei spielen. Diese Episode richtet sich an alle, die wissen wollen, wie KI transparent und verlässlich gemacht wird.

Support the show

You Might Like

Darknet Diaries
Darknet Diaries
Jack Rhysider
Double Tap
Double Tap
Double Tap Productions Inc.
Acquired
Acquired
Ben Gilbert and David Rosenthal
Hard Fork
Hard Fork
The New York Times
TechStuff
TechStuff
iHeartPodcasts
The Vergecast
The Vergecast
The Verge
This Week in Retro
This Week in Retro
Neil from RMCretro - The Cave, Chris from 005 AGIMA and Dave
Waveform: The MKBHD Podcast
Waveform: The MKBHD Podcast
Vox Media Podcast Network
RNIB Tech Talk
RNIB Tech Talk
RNIB Connect Radio
Talkin' Shop
Talkin' Shop
Eclipse Automotive Technology