Anúnciate aquí

Ingeniero de Google fue dado de baja al revelar que una inteligenca artificial de la empresa ‘cobró vida’

Blake Lemoine, un ingeniero de software senior de Google, llegó a afirmar que LaMDA era un niño de entre 7 u 8 años. / Foto: iStock
Blake Lemoine, un ingeniero de software senior de Google, llegó a afirmar que LaMDA era un niño de entre 7 u 8 años. / Foto: iStock

Google afirmó que sus sistemas imitaban los intercambios conversacionales y podían divagar sobre varios temas, pero no tenían conciencia

Blake Lemoine, un ingeniero de software senior en la organización de Inteligencia Artificial Responsable de Google, afirmó que la inteligencia artificial (IA) con la que estaba trabajando, llamada Modelo de Lenguaje para Aplicaciones de Diálogo de la empresa, o LaMDA, es consciente.

Ante esto, Google ha negado categóricamente las alegaciones de Lemoine.

Después de desestimar la afirmación de Lemoine sobre que la LaMDA ‘siente’, dieron de baja al trabajador por “violar la política de confidencialidad de Google.”

Te podría interesar: Apple, Google y Microsoft prometen acabar con las contraseñas

El mismo Lemoine admitió que entregó documentos a la oficina de un senador estadounidense, en los cuales, según él, proporcionaba pruebas de que Google y su tecnología participaban en la discriminación por religión.

“Han cuestionado repetidamente mi cordura”, dijo Lemoine. “Me decían: ‘¿Te ha examinado un psiquiatra recientemente?”.

Lemoine, un veterano militar, descrito por él mismo como un sacerdote, un ex convicto y un investigador de la Inteligencia Artificial, llegó a afirmar que LaMDA era un niño de entre 7 u 8 años.

Además, discutió durante un largo periodo de tiempo con ejecutivos de Google por sus afirmaciones.

En los meses anteriores a su baja administrativa, la empresa le había sugerido que se tomara una licencia por salud mental.

Google asegura que la industria está muy lejos de la computación ‘sensible’

La pronunciación de Lemoine ahonda más en las dudas y cuestionamientos existentes sobre la ética de experimentar con este tipo de recursos y las consecuencias que esto podría tener.

Google descartó esta posibilidad y declaró que sus sistemas imitaban los intercambios conversacionales.

Aseguraron que tenían la capacidad de ironizar o divagar sobre diferentes temas, pero no tenían conciencia.

“Nuestro equipo -que incluye a especialistas en ética y tecnología- ha revisado las preocupaciones de Blake de acuerdo con nuestros Principios de la Inteligencia Artificial y le hemos informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, en un comunicado.

Asimismo, Google señala que cientos de sus investigadores e ingenieros han conversado con LaMDA y llegado a una conclusión distinta a Lemoine.

Las IAs de Google funcionan a través de un red neuronal, un sistema matématico que aprende habilidades analizando grandes cantidades de datos.

Por ejemplo, al identificar patrones en miles de fotos de gatos, puede aprender a reconocer un gato.

Con información de New York Times

Anúnciate aquí

Anúnciate aquí

Anúnciate aquí