Foto de portada de Grupo de Discusión - Alignment Faking in LLMs
Foto de portada de Grupo de Discusión - Alignment Faking in LLMs
Avatar for BAISH Eventos
Presentado por
BAISH Eventos
Eventos de Buenos Aires AI Safety Hub
Organizado por
5 asistieron
Inscripción
Evento pasado
¡Bienvenido! Para unirte al evento, por favor regístrate a continuación.
Acerca del evento

Nos encontramos este miércoles para hablar sobre el "Alignment Faking in Large Language Models", del equipo de Anthropic.

Es un artículo muy relevante (OpenPhil lo enumera como ejemplo de una de las areas que les interesa financiar), y trae consigo un video modo podcast y un artículo corto (además del paper). La idea es que vengan con, al menos, el podcast entero escuchado o el artículo entero leído:

En el medio, compartiremos unos cafés mientras charlamos sobre el artículo y otros temas relacionados a AI Safety.

Nos vemos!

Ubicación
0 + infinito
Belgrano, C1428 Cdad. Autónoma de Buenos Aires, Argentina
Sala 1606
Avatar for BAISH Eventos
Presentado por
BAISH Eventos
Eventos de Buenos Aires AI Safety Hub
Organizado por
5 asistieron