TheVenezuelaTime

Las redes sociales no son un juego

2026-03-27 - 15:04

El reciente veredicto en Nuevo México contra Meta (empresa matriz de Facebook, Instagram, WhatsApp, Messenger y Threads) debe trascender la victoria histórica que determinó que la corporación había engañado a los consumidores respecto a la seguridad y había permitido que se produjeran daños, entre ellos la explotación sexual infantil, contra sus usuarios, siendo obligada a pagar 375 millones de dólares en sanciones civiles. Esto es, sin duda, mucho más profundo e inquietante. El caso ha puesto en el punto de mira al estadounidense Mark Zuckerberg y a la cúpula directiva de la empresa por facilitar un contacto arriesgado, manipular el comportamiento y exponer a menores a graves perjuicios en espacios digitales que la empresa presentaba como seguros. El problema trasciende los contenidos inapropiados, ya que se trata que el sistema los hace circular, los impulsa y los normaliza. Durante años, el debate público se centró en que el peligro de las plataformas radicaba en que algunos usuarios malintencionados lograban burlar los filtros y publicar contenidos preocupantes. Esa perspectiva resulta insuficiente. Lo que este juicio deja al descubierto es que existe una perversa arquitectura digital diseñada para capturar la atención, prolongar la permanencia del usuario y multiplicar sus interacciones, incluso cuando esta lógica termina abriendo la puerta al acoso y el abuso. El problema, por tanto, no empieza ni termina en la pantalla, sino que está en el diseño del servicio, en los incentivos económicos que lo rigen y en la forma en que se presentó la seguridad al público. El debate cambia por completo, ya que, si una empresa declara que protege a los menores y luego se enfrenta a un juicio por haber creado deliberadamente condiciones de protección débiles, parciales o engañosas, ya nos encontramos ante un problema de salud pública, de protección al consumidor y de responsabilidad tecnológica. En otras palabras, la plataforma deja de ser una mera intermediaria neutral de contenidos para empezar a considerarse una infraestructura con efectos previsibles sobre la conducta humana, sobre todo en edades en las que la madurez emocional todavía está en desarrollo. Lo verdaderamente grave del caso estriba en que expone un modelo, no una falla puntual. Un modelo que monetiza la atención, premia la adicción constante y reduce la seguridad a un enunciado publicitario, mientras el producto sigue empujando a los usuarios más jóvenes hacia un uso intensivo. Esa es la mayor alarma. Si el negocio depende de que el niño o la niña vea más contenido, vuelva más a menudo y pase más tiempo en la plataforma, entonces la promesa de protección compite directamente con la fuente misma de ingresos. Y, cuando esto ocurre, la autorregulación resulta muchísimo menos creíble. Por eso, como sociedad, deberíamos actuar cuanto antes, ya que esto va más allá de aprobar leyes de privacidad que solo sirvan para actuar después de que se haya producido el daño o de campañas escolares que trasladen el peso de la responsabilidad a las familias y a los docentes. Es imprescindible una política pública mucho más firme, capaz de intervenir en el diseño de las plataformas para exigir verificaciones de edad eficaces, limitar los mecanismos de uso compulsivo, restringir las recomendaciones automatizadas para menores, obligar a realizar auditorías independientes y sancionar de manera ejemplar las declaraciones comerciales que ofrezcan una seguridad que el producto no garantiza. Europa, el Reino Unido y Australia ya han comenzado a dar pasos en esta dirección. En América Latina, la regulación digital suele discutirse como si el eje estuviera solo en la libertad de expresión o en la moderación de contenidos. Sin embargo, el meollo del asunto se está desplazando hacia otro terreno en el que la ingeniería de producto, la opacidad algorítmica y los patrones de diseño explotan las vulnerabilidades cognitivas. Allí es donde conviene legislar, supervisar y medir. Cuando el diseño de una plataforma expone a millones de menores, la pregunta central deja de ser cuán innovadora es la empresa. La verdadera pregunta es: ¿qué riesgos ha decidido tolerar para crecer? Esa es precisamente la pregunta que ahora deberían hacerse muchos Estados, antes de que otro tribunal enfrente la letanía pública que afecta a un amplísimo espectro de personas, y sobre todo a los niños, niñas y adolescentes, pues las redes sociales no son un juego. @betancourt_phd

Share this post: