OpenAI la telenovela
El 11 de noviembre de 2023 se dio conocer una carta de exempleados de OpenAI a unos días del despido de Sam Altman:
21/11/2023
A la Junta Directiva de OpenAI:
Le escribimos hoy para expresarle nuestra profunda preocupación por los recientes acontecimientos en OpenAI, en particular las acusaciones de mala conducta contra Sam Altman.
Somos ex empleados de OpenAI que dejamos la empresa durante un período de gran agitación y agitación. Como ahora has sido testigo de lo que sucede cuando te atreves a enfrentarte a Sam Altman, tal vez puedas entender por qué muchos de nosotros hemos permanecido en silencio por temor a las repercusiones. Ya no podemos permanecer en silencio.
Creemos que la Junta Directiva tiene el deber de investigar estas acusaciones a fondo y tomar las medidas adecuadas. Le instamos a:
Ampliar el alcance de la investigación de Emmett para incluir un examen de las acciones de Sam Altman desde agosto de 2018, cuando OpenAI comenzó la transición de una entidad sin fines de lucro a una con fines de lucro.
Emitir una convocatoria abierta para declaraciones privadas de ex empleados de OpenAI que renunciaron, fueron puestos en licencia médica o fueron despedidos durante este período.
Proteger las identidades de quienes se presentan para garantizar que no sean objeto de represalias u otras formas de daño.
Creemos que un número significativo de empleados de OpenAI fueron expulsados de la empresa para facilitar su transición a un modelo con fines de lucro. Esto se evidencia por el hecho de que la tasa de deserción de empleados de OpenAI entre enero de 2018 y julio de 2020 fue del orden del 50%.
A lo largo de nuestro tiempo en OpenAI, fuimos testigos de un inquietante patrón de engaño y manipulación por parte de Sam Altman y Greg Brockman, impulsados por su insaciable búsqueda de lograr inteligencia artificial general (AGI). Sin embargo, sus métodos han suscitado serias dudas sobre sus verdaderas intenciones y hasta qué punto priorizan genuinamente el beneficio de toda la humanidad.
Muchos de nosotros, inicialmente esperanzados en la misión de OpenAI, decidimos darles a Sam y Greg el beneficio de la duda. Sin embargo, a medida que sus acciones se volvieron cada vez más preocupantes, quienes se atrevieron a expresar sus preocupaciones fueron silenciados o expulsados. Este silenciamiento sistemático de la disidencia creó un ambiente de miedo e intimidación, sofocando efectivamente cualquier discusión significativa sobre las implicaciones éticas del trabajo de OpenAI.
Proporcionamos ejemplos concretos de la deshonestidad y manipulación de Sam y Greg, que incluyen:
La exigencia de Sam de que los investigadores retrasen la presentación de informes sobre los avances en iniciativas de investigación "secretas" específicas, que luego fueron desmanteladas por no ofrecer resultados suficientes con la suficiente rapidez. Aquellos que cuestionaron esta práctica fueron descartados como "malos ajustes culturales" e incluso despedidos, algunos justo antes del Día de Acción de Gracias de 2019.
El uso de lenguaje discriminatorio por parte de Greg contra un miembro del equipo en transición de género. A pesar de muchas promesas para abordar este problema, no se tomó ninguna medida significativa, excepto que Greg simplemente evitó toda comunicación con la persona afectada, creando efectivamente un ambiente de trabajo hostil. Este miembro del equipo finalmente fue despedido por presunto bajo desempeño.
Sam ordena al personal de TI y Operaciones que realice investigaciones sobre los empleados, incluido Ilya, sin el conocimiento o consentimiento de la gerencia.
La explotación discreta pero rutinaria por parte de Sam de los recursos sin fines de lucro de OpenAI para promover sus objetivos personales, particularmente motivada por su rencor contra Elon luego de su pelea.
La aceptación tácita por parte del equipo de Operaciones de las reglas especiales que se aplicaban a Greg, sorteando requisitos intrincados para evitar ser incluido en la lista negra.
La promesa incumplida de Brad Lightcap de hacer públicos los documentos que detallan la estructura de ganancias limitadas de OpenAI y el límite de ganancias para cada inversor.
Las incongruentes promesas de Sam de investigar proyectos para obtener cuotas informáticas, provocan desconfianza interna y luchas internas.
A pesar de la creciente evidencia de las transgresiones de Sam y Greg, quienes permanecen en OpenAI continúan siguiendo ciegamente su liderazgo, incluso a un costo personal significativo. Esta lealtad inquebrantable surge de una combinación de miedo a represalias y el atractivo de posibles ganancias financieras a través de las unidades de participación en ganancias de OpenAI.
La estructura de gobierno de OpenAI, diseñada específicamente por Sam y Greg, aísla deliberadamente a los empleados de la supervisión de las operaciones con fines de lucro, precisamente debido a sus inherentes conflictos de intereses. Esta estructura opaca permite a Sam y Greg operar con impunidad, protegidos de la responsabilidad.
Instamos a la Junta Directiva de OpenAI a adoptar una postura firme contra estas prácticas poco éticas e iniciar una investigación independiente sobre la conducta de Sam y Greg. Creemos que la misión de OpenAI es demasiado importante como para verse comprometida por las agendas personales de unos pocos individuos.
Le imploramos a usted, la Junta Directiva, que se mantenga firme en su compromiso con la misión original de OpenAI y no sucumba a las presiones de intereses con fines de lucro. El futuro de la inteligencia artificial y el bienestar de la humanidad dependen de su compromiso inquebrantable con el liderazgo ético y la transparencia.
Atentamente,
Ex empleados de OpenAI preocupados
Carta archivada en: web.archive.org
El día de hoy Reuters ha dado a conocer que #Skynet ha nacido de las entrañas de #OpenAI
En el despido de #SamAltman resuena el que investigadores enviaron a la junta directiva una carta advirtiendo sobre un poderoso descubrimiento de IA que, según dijeron, podría amenazar a la humanidad.
El artículo en cuestión:
Los investigadores de OpenAI advirtieron a la junta sobre los avances de la IA antes de la destitución del CEO, dicen las fuentes.
22 nov (Reuters) - Antes de los cuatro días de despido del CEO de OpenAI, Sam Altman, varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad, dijeron a Reuters dos personas familiarizadas con el asunto. .
La carta no reportada anteriormente y el algoritmo de IA fueron desarrollos clave antes de que la junta destituyera a Altman, el ejemplo de la IA generativa, dijeron las dos fuentes. Antes de su regreso triunfal el martes por la noche, más de 700 empleados habían amenazado con renunciar y unirse al patrocinador Microsoft (MSFT.O) en solidaridad con su líder despedido.
Las fuentes citaron la carta como un factor entre una lista más larga de quejas de la junta que llevaron al despido de Altman, entre las que se encontraban preocupaciones sobre la comercialización de avances antes de comprender las consecuencias. Reuters no pudo revisar una copia de la carta. El personal que escribió la carta no respondió a las solicitudes de comentarios.
Después de ser contactado por Reuters, OpenAI, que declinó hacer comentarios, reconoció en un mensaje interno a su personal un proyecto llamado Q* y una carta a la junta antes de los eventos del fin de semana, dijo una de las personas. Un portavoz de OpenAI dijo que el mensaje, enviado por la ejecutiva Mira Murati, alertó al personal sobre ciertas historias de los medios sin comentar sobre su exactitud.
Algunos en OpenAI creen que Q* (pronunciado Q-Star) podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI), dijo una de las personas a Reuters. OpenAI define AGI como sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.
Dados los vastos recursos informáticos, el nuevo modelo pudo resolver ciertos problemas matemáticos, dijo la persona bajo condición de anonimato porque no estaba autorizada a hablar en nombre de la empresa. Aunque solo realizaba matemáticas al nivel de los estudiantes de escuela primaria, superar esas pruebas hizo que los investigadores se sintieran muy optimistas sobre el éxito futuro de Q*, dijo la fuente.
Reuters no pudo verificar de forma independiente las capacidades de Q* afirmadas por los investigadores.
Los investigadores consideran que las matemáticas son una frontera en el desarrollo de la IA generativa. Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, y las respuestas a la misma pregunta pueden variar ampliamente. Pero conquistar la capacidad de hacer matemáticas (donde sólo hay una respuesta correcta) implica que la IA tendría mayores capacidades de razonamiento que se asemejarían a la inteligencia humana. Los investigadores de IA creen que esto podría aplicarse a investigaciones científicas novedosas, por ejemplo.
A diferencia de una calculadora que puede resolver un número limitado de operaciones, AGI puede generalizar, aprender y comprender.
En su carta a la junta, los investigadores señalaron la destreza y el peligro potencial de la IA, dijeron las fuentes sin especificar las preocupaciones de seguridad exactas señaladas en la carta. Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas muy inteligentes, si, por ejemplo, pudieran decidir que la destrucción de la humanidad era de su interés.
Los investigadores también han señalado el trabajo de un equipo de "científicos de IA", cuya existencia confirmaron múltiples fuentes. El grupo, formado combinando equipos anteriores de "Code Gen" y "Math Gen", estaba explorando cómo optimizar los modelos de IA existentes para mejorar su razonamiento y eventualmente realizar trabajo científico, dijo una de las personas.
Altman lideró los esfuerzos para hacer de ChatGPT una de las aplicaciones de software de más rápido crecimiento en la historia y atrajo la inversión (y los recursos informáticos) necesarios de Microsoft para acercarse a AGI.
Además de anunciar una serie de nuevas herramientas en una manifestación este mes, Altman bromeó la semana pasada en una cumbre de líderes mundiales en San Francisco diciendo que creía que se estaban vislumbrando importantes avances.
"Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala, cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante, y "Poder hacer eso es el honor profesional de mi vida", dijo en la cumbre de Cooperación Económica Asia-Pacífico.
Un día después, la junta despidió a Altman.
La telenovela sigue.
Comentarios