AM Querétaro



Foto: AP.

‘Jamás bajará a cero’: la inteligencia artificial y la misión de limpiar Facebook

Se nuestro fan en Google News



¿Ya eres fan?

La red social, Facebook, ha estado sometida al escrutinio por la proliferación de contenido falso.

Cade Metz & Mike Isaac

Durante media hora, habíamos estado sentados en una sala de conferencias en la sede de Facebook, rodeados de pizarrones blancos cubiertos de mensajes escritos con plumones azules y rojos, hablando de las dificultades técnicas de eliminar contenido nocivo de la red social. Después mencionamos un episodio en el que los desafíos demostraron ser insuperables: los tiroteos en Christchurch, Nueva Zelanda.

En marzo, un tirador había asesinado a 51 personas en dos mezquitas y transmitió en vivo la atrocidad en Facebook. A la empresa le tomó aproximadamente una hora eliminar el video de su sitio. Para ese momento, el material sangriento se había difundido en todas las redes sociales.

Schroepfer no dijo nada. Sus ojos comenzaron a brillar.

“Estamos trabajando en esto ahora mismo”, dijo después de un minuto, tratando de mantener la compostura. “No encontraremos la solución mañana. Pero no quiero tener esta conversación de nuevo en seis meses. Podemos llevar a cabo un trabajo mucho mejor para solucionar este problema”.

La pregunta es si eso de verdad es cierto o si Facebook se está engañando.

Durante los últimos tres años, la red social ha estado sometida al escrutinio por la proliferación de contenido falso, engañoso e inapropiado que la gente publica en su sitio. Como respuesta, Mark Zuckerberg, el director ejecutivo de Facebook, ha invocado una tecnología que, según él, ayudará a eliminar las publicaciones problemáticas: la inteligencia artificial.

Foto: The New York Times.

Ante el Congreso el año pasado, Zuckerberg testificó que Facebook estaba desarrollando sistemas automáticos para “identificar ciertos tipos de actividades negativas” y declaró que “a lo largo de un periodo de cinco a diez años, tendremos herramientas de IA” que puedan detectar y eliminar el discurso de odio. Desde entonces ha repetido alegremente esas afirmaciones en los medios, en conferencias telefónicas con Wall Street y en los eventos de Facebook.

Schroepfer —o Schrep, como se le conoce internamente— es la persona de Facebook que lidera los esfuerzos para construir las herramientas automatizadas con el fin de analizar y eliminar millones de esas publicaciones. Sin embargo, la tarea es sisífica, reconoció a lo largo de tres entrevistas hace poco.

Eso se debe a que cada vez que Schroepfer y sus más de 150 especialistas en ingeniería crean soluciones de IA que detectan y eliminan material nocivo, aparecen publicaciones nuevas y dudosas que los sistemas de IA jamás habían visto, y, por lo tanto, no pueden eliminarlas. La misión es aún más difícil porque “la actividad negativa” a menudo depende de quien la ve, y los humanos —ni hablar de las máquinas— no pueden ponerse de acuerdo respecto de cómo definirla.

En una entrevista, Schroepfer reconoció después de algo de presión que la IA por sí misma no podría curar los males de Facebook. “Creo que este es un punto de quiebre”, comentó. Pero “no creo que ‘todo esté resuelto’ ni que todos vayamos a empacar e irnos a casa”.

No obstante, la presión se siente. La semana pasada, después de las críticas generalizadas respecto del video de Christchurch, Facebook cambió sus políticas para restringir el uso de su servicio de transmisión en vivo. En una cumbre en París con el presidente francés Emmanuel Macron y la primera ministra de Nueva Zelanda Jacinda Ardern el miércoles, la empresa también firmó un compromiso para reevaluar las herramientas que usa con el fin de identificar contenido violento.

Schroepfer, de 44 años, está en una posición en la que nunca quiso estar. Durante años, su empleo se trataba de ayudar a la red social a construir un laboratorio de IA de primera, donde las mentes más brillantes pudieran abordar desafíos tecnológicos como el uso de máquinas para identificar el rostro de las personas en las fotografías. Él y Zuckerberg querían una operación de IA que compitiera con la de Google, pues de manera generalizada se consideraba que esta tenía el equipo más importante de investigadores de IA. Reclutó a doctores de la Universidad de Nueva York, la Universidad de Londres y la Universidad Pierre y Marie Curie en París.

Foto: The New York Times.

Sin embargo, a lo largo del camino, su papel evolucionó para convertirse en el de un eliminador de amenazas y contenido tóxico. Ahora él y sus reclutas pasan gran parte de su tiempo aplicando IA para detectar y borrar amenazas de muerte, videos de suicidios, desinformación y mentiras.

Ninguno de nosotros ha visto jamás algo así”, dijo John Lilly, exdirector ejecutivo de Mozilla y ahora inversionista de riesgo en Greylock Partners, quien estudió informática con Schroepfer en la Universidad de Stanford a mediados de la década de 1990. “No hay nadie más a quien preguntarle sobre cómo resolver estos problemas”.

Facebook nos permitió hablar con Schroepfer porque quería mostrar cómo la IA está identificando el contenido problemático y, al parecer, porque estaba interesada en humanizar a sus ejecutivos. El director de tecnología a menudo muestra sus sentimientos, de acuerdo con muchos que lo conocen.

“No creo estar hablando sin tacto al decir que he visto llorar a Schrep en el trabajo”, dijo Jocelyn Goldfein, una inversionista de riesgo en Zetta Venture Partners que trabajó con él en Facebook.

No obstante, pocos podrían haber pronosticado la manera en que Schroepfer reaccionaría a nuestras preguntas. En dos de las entrevistas, comenzó con un mensaje optimista acerca de que la IA podría ser la solución, antes de ponerse emotivo. En determinado momento, dijo que ir al trabajo a veces se había vuelto una lucha. Cada vez, se le cortaba la voz cuando hablaba de la escala de los problemas que Facebook estaba enfrentando y la responsabilidad que tiene de cambiarlas.

“Jamás bajará a cero”, dijo sobre las publicaciones problemáticas.

‘Convenciendo a los ingenieros de que no renuncien’

Desde sus primeros días en Facebook, Schroepfer era considerado un solucionador de problemas.

Criado en Delray Beach, Florida, donde sus padres tenían una estación de radio AM de mil vatios que reproducía viejas canciones de rocanrol antes de cambiar el género al R&B, Schroepfer se mudó a California en 1993 para asistir a Stanford. Ahí, estudió una licenciatura y un posgrado en informática, conviviendo con otros tecnólogos como Lilly y Adam Nash, que ahora es un alto ejecutivo en la empresa de intercambio de archivos Dropbox.

En 2008, Dustin Moskovitz, cofundador de Facebook, renunció como su director de ingeniería. Después llegó Schroepfer, quien asumió ese cargo en la empresa. Facebook atendía a alrededor de dos millones de personas en ese entonces, y su misión era mantener en funcionamiento el sitio mientras su número de usuarios aumentaba exponencialmente. El empleo involucraba manejar a miles de ingenieros y decenas de miles de servidores informáticos en todo el mundo.

“Gran parte del trabajo era como estar en un autobús cuesta abajo y en llamas con cuatro llantas desinfladas. Me preguntaba: ‘¿Cómo lo mantenemos a flote?’”, dijo Schroepfer. Una gran parte de su día consistía en “convencer a los ingenieros de que no renunciaran” porque estaban lidiando con problemas a todas horas, comentó.

Foto: iStock.

A lo largo de los siguientes años, su equipo construyó una serie de nuevas tecnologías para administrar un servicio de esta magnitud. (Facebook tiene más de 2000 millones de usuarios actualmente). Desplegó nuevas herramientas de programación para ayudar a que la plataforma llegara a las computadoras personales y los celulares de manera más rápida y confiable. Presentó servidores informáticos en centros de datos para optimizar la operación de la enorme red informática. Al final, Facebook redujo de manera significativa las interrupciones del servicio.

“No recuerdo la última vez que hablé con un ingeniero que estuviera agotado debido a problemas de escala”, dijo Schroepfer.

Por sus esfuerzos, Schroepfer obtuvo más responsabilidad. En 2013, lo ascendieron a director de tecnología. Su trabajo consistía en canalizar nuevas áreas de tecnología que la empresa debía explorar, siempre mirando hacia el futuro. Como señal de la importancia de su puesto, utiliza un escritorio al lado del de Zuckerberg en la sede de Facebook y se sienta entre el director ejecutivo y Sheryl Sandberg, la directora de operaciones.

“Es una buena representación de cómo piensan y se comportan muchas personas en la empresa”, dijo Zuckerberg acerca de Schroepfer. “El superpoder de Schrep es su habilidad para capacitar y formar equipos en torno a zonas diversas de problemas. Jamás he trabajado con alguien más que pueda hacerlo como él”.

Por eso no fue sorprendente que Zuckerberg recurriera a Schroepfer para lidiar con toda la toxicidad que agobiaba a Facebook.

El brócoli contra la marihuana

Dentro de una sala de conferencias de Facebook una tarde reciente, Schroepfer abrió dos imágenes en su computadora personal de Apple. Una era de un brócoli y la otra de unos brotes aglomerados de marihuana. Todos en la sala veían fijamente las imágenes. Algunos de nosotros no estábamos muy seguros de cuál era qué.

Schroepfer había mostrado las imágenes para dar un ejemplo. Aunque algunos de nosotros teníamos problemas para distinguir entre ambas, los sistemas de IA de Facebook ahora eran capaces de detectar patrones en miles de imágenes para poder reconocer la planta de marihuana por sí mismos. En cuanto la IA detectó las imágenes de la marihuana, muchas de las cuales estaban vinculadas con anuncios de Facebook que usaban las fotografías para vender marihuana mediante la red social, la empresa pudo eliminarlas.

“Ahora podemos eliminar ese tipo de cosas, de manera proactiva”, dijo Schroepfer.

El problema era que el ejercicio de la marihuana contra el brócoli no solo era una señal de progreso, sino también de los límites a los que estaba llegando Facebook. El equipo de Schroepfer ha construido sistemas de IA que la empresa utiliza para identificar y eliminar imágenes de marihuana, desnudez y contenido relacionado con terroristas. Sin embargo, los sistemas no están detectando todas esas imágenes, pues siempre hay contenido inesperado, lo cual implica que millones de publicaciones de desnudos, marihuana y terrorismo siguen llegando a ojos de los usuarios de Facebook.

Identificar imágenes insolentes también es una de las tareas más fáciles para la IA. Es más difícil construir sistemas para identificar artículos noticiosos falsos o discurso de odio. Los artículos de noticias falsas pueden modificarse fácilmente para que parezcan reales. Además, el discurso de odio es problemático porque es muy difícil que las máquinas reconozcan los matices lingüísticos. Muchos matices difieren de un idioma a otro, mientras que el contexto en torno a las conversaciones rápidamente cambia conforme estas se llevan a cabo, por lo que es difícil que las máquinas se mantengan al corriente.

Delip Rao, director de investigación en AI Foundation, una organización sin fines de lucro que explora la manera en que la inteligencia artificial puede combatir la desinformación, describió el desafío como “una carrera armamentista”. La IA se construye a partir de lo que ha venido antes. Pero a menudo no hay nada de lo cual aprender. El comportamiento cambia. Los atacantes crean nuevas técnicas. Por definición, se convierte en un juego del gato y el ratón.

“A veces estás un paso delante de la gente que provoca daños”, dijo Rao. “A veces ellos están un paso delante de ti”.

Esa tarde, Schroepfer intentó responder nuestras preguntas acerca del juego del gato y el ratón con datos y números. Dijo que Facebook ahora elimina automáticamente el 96 por ciento de toda la desnudez de la red social. El discurso de odio era más difícil, dijo: la empresa atrapa el 51 por ciento de ese tipo de publicaciones en el sitio. (Facebook más tarde dijo que la cifra había aumentado al 65 por ciento).

Schroepfer reconoció el elemento armamentista. Facebook, que puede detectar y eliminar automáticamente transmisiones problemáticas de videos en vivo, no identificó el video de Nueva Zelanda en marzo, dijo, porque no se parecía en realidad a nada que se hubiera cargado a la red social en el pasado. El video ofrecía un punto de vista de primera persona, como en un juego de computadora.

Foto: especial

Al diseñar sistemas que identifican la violencia gráfica, Facebook generalmente trabaja a partir de imágenes existentes, imágenes de gente que patea gatos, perros que atacan gente, autos que arrollan a peatones, una persona que ataca a otra con un bate de béisbol. Pero, dijo, “ninguna de esas imágenes se parecía mucho al video”.

La novedad del video de ese tiroteo era la razón por la que era tan impactante, dijo Schroepfer. “Esa también es la razón por la que no fue detectado de manera inmediata”, dijo, y agregó que había visto el video varias veces para entender cómo Facebook podría identificar el siguiente.

“Desearía poder borrarlo de mi mente”, dijo.

The New York Times / OHH 


“Rector



. .

Deja una respuesta

avatar
  Suscribete  
Notificación de




/* ]]> */