Cover Image for Grupo de Discusión - Alignment Faking in LLMs
Cover Image for Grupo de Discusión - Alignment Faking in LLMs
Avatar for BAISH Eventos
Presented by
BAISH Eventos
Eventos de Buenos Aires AI Safety Hub
5 Went
Registration
Past Event
Welcome! To join the event, please register below.
About Event

Nos encontramos este miércoles para hablar sobre el "Alignment Faking in Large Language Models", del equipo de Anthropic.

Es un artículo muy relevante (OpenPhil lo enumera como ejemplo de una de las areas que les interesa financiar), y trae consigo un video modo podcast y un artículo corto (además del paper). La idea es que vengan con, al menos, el podcast entero escuchado o el artículo entero leído:

En el medio, compartiremos unos cafés mientras charlamos sobre el artículo y otros temas relacionados a AI Safety.

Nos vemos!

Location
0 + infinito
Belgrano, C1428 Cdad. Autónoma de Buenos Aires, Argentina
Sala 1606
Avatar for BAISH Eventos
Presented by
BAISH Eventos
Eventos de Buenos Aires AI Safety Hub
5 Went