In der aktuellen Episode von "Knowledge Science" tauchen Sigurd Schacht und Carsten Lanquillon tief in die mysteriösen Tiefen der Transformer-Modelle ein.
Sie sprechen über Logit Lens eine Methode, mittels der man die Aktivierungen der einzelnen Neuronen und Token besser verstehen kann, um mehr über den Denkprozess dieser großen Sprachmodelle zu erfahren.
Mit wertvollen Insights bieten sie eine spannende Reise in die Welt der mechanistischen Interpretierbarkeit und wie aktuelle Tools wie die Transformer Lens dabei helfen können.