
La seguridad en línea suele considerarse un problema técnico que puede resolverse con mejores herramientas, leyes más estrictas o algoritmos más inteligentes. Pero, ¿y si la seguridad no pudiera diseñarse en absoluto? ¿Y si fuera algo que debiera negociarse colectivamente en los espacios digitales y físicos que habitamos?
Hace ocho semanas, lanzamos un Research Sprint para explorar cómo las comunidades crean, habitan y protegen los espacios online. El Sprint reunió a académicos, diseñadores, tecnólogos, artistas y activistas de todo el mundo para reimaginar el contrato social urbano para la era digital.
Durante el Sprint, tuvimos el placer de conversar con seis expertos inspiradores —Eriol Fox, Anhxela Maloku, Suzie Dunn, Qingyi Ren, Cade Diehm y Caroline Sinder— cuya experiencia y conocimientos guiaron nuestra investigación colectiva.
Una idea fundamental que surgió a lo largo de estas conversaciones es que la seguridad y la protección son relacionales y contextuales. No son estados fijos ni objetivos técnicos, sino resultados que se configuran a partir de las interacciones, la confianza, los entornos y las normas compartidas.
Centrarnos en las comunidades en lugar de en los individuos al hablar de espacios seguros nos llevó a plantearnos preguntas más profundas y basadas en valores: ¿Quién define qué es una comunidad? ¿Las necesidades de quién tienen prioridad? ¿Las experiencias de quién influyen en las decisiones de diseño? ¿A quién se escucha y a quién se excluye sistemáticamente?
Un concepto clave que surgió de estas preguntas fue la confianza. No solo la confianza en una plataforma concreta, sino también la confianza que los miembros de la comunidad cultivan (o se esfuerzan por cultivar) a través de su participación en un espacio online.
En este contexto, la confianza no es solo una palabra de moda que se añade al final de un proyecto. Requiere que las comunidades participen desde el principio y tengan la oportunidad de expresarse de forma creativa. También se les debe dar espacio para dar forma a las herramientas que afectarán a sus vidas. Al fin y al cabo, las herramientas desarrolladas por y para una comunidad concreta tienen muchas más posibilidades de reflejar su identidad, cultura y valores.
Esto es especialmente importante para las comunidades que corren un mayor riesgo. Para estas comunidades, las funciones de privacidad y seguridad no son solo comodidades, sino que son vitales. Lo que algunas personas consideran opcional puede ser una cuestión de supervivencia para otras. Esto reforzó una idea recurrente del Sprint: un buen diseño da prioridad a la seguridad de los más vulnerables porque, cuando ellos se sienten seguros, toda la comunidad se beneficia.
La idea de confianza también fue la base de las conversaciones sobre la representación queer, la permanencia digital y la fluidez de la identidad. Estas conversaciones nos recordaron que la confianza también es esencial para el diseño inclusivo, que debe adaptarse a las autodefiniciones en constante evolución en lugar de encasillar a las personas en categorías estáticas o perfiles rígidos.
Basar nuestro debate en las comunidades también nos llevó a una realidad simple, pero que a menudo se pasa por alto: los ámbitos digital y físico están inextricablemente vinculados.
Durante los últimos cuatro años en Edgelands, hemos explorado cómo la creciente digitalización de la seguridad está cambiando nuestro *contrato social urbano*, la red en constante evolución de normas y expectativas que determinan cómo vivimos, nos movemos e interactuamos en los espacios urbanos. Los debates durante el Sprint me hicieron darme cuenta de que lo que realmente estamos negociando es un contrato social urbano-digital: una red en constante evolución de normas y expectativas que dan forma no solo a cómo convivimos en los espacios urbanos físicos, sino también en los espacios digitales y en el ámbito híbrido entre ambos (al que los ponentes se refirieron como«para-real»).
Estas esferas están ahora tan profundamente entrelazadas que intentar separarlas resulta artificial y, a menudo, oscurece las dinámicas más importantes. Las condiciones que hacen posibles los espacios seguros en línea tienen sus raíces en las estructuras culturales y sociales del mundo físico, y el daño que las personas experimentan en línea se extiende a su vida cotidiana.
Por lo tanto, una seguridad significativa depende de múltiples elementos interrelacionados y no puede delegarse en ninguno de ellos: ni en la ley, ni en el código, ni en el diseño, ni en la responsabilidad individual.
Reconocer esta complejidad revela un patrón recurrente: profundas brechas estructurales.
Brechas entre programadores y usuarios. Brechas entre científicos sociales y tecnólogos. Brechas entre el diseño orientado a los beneficios y las necesidades de la comunidad.
Estas diferencias dan lugar a tensiones reales en la forma en que se concibe y se pone en práctica la seguridad.
Por ejemplo, incluso cuando las plataformas adoptan ajustes predeterminados de privacidad u ofrecen configuraciones más accesibles, la eficacia de estas medidas de seguridad sigue dependiendo de si las personas pueden comprenderlas y utilizarlas. Con demasiada frecuencia, estas herramientas se comunican mediante un lenguaje opaco y muy técnico. Cuando esto ocurre, incluso los diseños bienintencionados se quedan cortos: los usuarios se sienten abrumados, los programadores se sienten incomprendidos y las decisiones críticas quedan ocultas tras la jerga técnica.
En este caso, se identificó la empatía como un factor esencial. Adoptar un enfoque empático en el diseño, desde las primeras etapas conceptuales hasta la interfaz final, ayuda a salvar la brecha entre lo que los programadores dan por sentado y lo que los usuarios realmente necesitan. Este enfoque transforma la seguridad de una característica técnica en algo que se puede comprender, navegar y en lo que se puede confiar.
Sin embargo, el diseño por sí solo no puede soportar todo el peso. El Sprint dejó claro que incluso las herramientas más cuidadosamente elaboradas dependen de fundamentos culturales, sociales y políticos que pueden reforzar o debilitar su impacto.
Aunque las leyes y regulaciones tienen su lugar, se nos recordó que las herramientas legales deben ser un último recurso, reservado para los daños más graves. La seguridad cotidiana se ve mucho más influida por estrategias culturales, educativas y de diseño que por prohibiciones punitivas, que rara vez abordan las causas fundamentales de los problemas. Un enfoque restaurativo y centrado en el ser humano para la moderación, que fomente el diálogo en lugar de recurrir al castigo, genera confianza y fortalece las comunidades.
El énfasis en los enfoques restaurativos no debe confundirse con un llamamiento a la inacción. La ausencia de regulación crea su propia forma de inestabilidad, fragmentando las comunidades, facilitando la desinformación y exponiendo a las personas vulnerables a un mayor riesgo. Por lo tanto, la inacción nunca es neutral, ya que tiene consecuencias reales tanto en el espacio digital como en el físico.
La inseparabilidad de nuestros mundos digital y físico también quedó patente en nuestro debate sobre lo que ocurre cuando el propio entorno digital se vuelve inestable. En situaciones en las que la conectividad se interrumpe de forma intencionada o se pierde de forma involuntaria, determinadas plataformas deben conservar funciones esenciales, como alertas de seguridad, contactos de emergencia y puntos de encuentro. Los manifestantes y los grupos de riesgo no pueden permitirse perder el acceso a estas herramientas en el momento en que fallan las redes. La resiliencia debe diseñarse de forma intencionada, no darse por sentada.
Al mismo tiempo, la infraestructura global que sustenta nuestras vidas digitales es desigual y frágil. ****El arduo trabajo de los moderadores y los usuarios a menudo pasa desapercibido, y los sistemas físicos que sustentan las plataformas digitales son vulnerables a los desastres naturales, la interferencia política y la falta de supervisión humana, lo que se ve agravado por los recortes de personal que realizan las empresas. Sin embargo, estas vulnerabilidades rara vez se reconocen en los relatos sobre la expansión digital sin límites.
A medida que reimaginamos nuestro contrato social urbano-digital, una cosa queda clara: cualquier solución sostenible e impulsada por la comunidad debe moverse con fluidez entre lo físico y lo digital. Ambos no pueden, ni deben, separarse.
La moderación es un claro ejemplo de ello. Si bien es esencial para crear entornos digitales seguros, no puede reducirse a sistemas automatizados ni externalizarse a trabajadores mal remunerados sin el apoyo cultural, lingüístico o emocional adecuado. La moderación eficaz prospera cuando la dirigen miembros de la comunidad que comprenden los contextos locales y cuando las personas tienen acceso a un apoyo humano real. Los servicios de asistencia regionales, las líneas de atención telefónica específicas para cada cultura y las personas que ya se enfrentan a la violencia en sus propias comunidades se han convertido en enfoques prometedores, siempre que también protejamos y apoyemos a estos trabajadores de primera línea.
Del mismo modo, aunque las prácticas de ciberseguridad son fundamentales para proteger las plataformas contra amenazas externas, por sí solas no pueden garantizar la seguridad. Deben combinarse con mecanismos centrados en las personas. Uno de estos enfoques es el uso de «personas de confianza designadas»: individuos designados dentro de una comunidad o institución que pueden apoyar directamente a los usuarios y actuar como intermediarios entre las personas, la tecnología y las estructuras de gobernanza. Estas funciones ayudan a garantizar que se escuchen y se actúe en función de los comentarios sobre cuestiones de seguridad.
En conjunto, estas ideas apuntan hacia un contrato social urbano-digital basado en los valores comunitarios y el diseño basado en la empatía, que logra un delicado equilibrio entre las garantías tecnológicas y la conexión humana. Espero que esta visión de un futuro digital más seguro siga evolucionando a través de la investigación continua, la colaboración y la responsabilidad compartida. Al fin y al cabo, en un mundo en el que la vida digital y la física son inseparables, crear espacios más seguros ya no es opcional . Es una responsabilidad colectiva y una negociación continua.
Si la seguridad es algo que construimos juntos en lugar de algo que se puede imponer desde arriba, entonces las comunidades necesitan algo más que principios: también necesitan herramientas. Con este fin, los investigadores de Sprint han desarrollado un conjunto de herramientas basado en la experiencia vivida y diseñado para ayudar a las comunidades en línea a crear, reflexionar y mantener espacios más seguros según sus propios términos.
El conjunto de herramientas se publicará a principios de 2026, y animo a los lectores a que estén atentos a su lanzamiento como continuación de las conversaciones que surgieron del Sprint.
Me gustaría expresar mi más sincero agradecimiento a todos los ponentes que amablemente compartieron sus conocimientos y experiencia, y a todos los participantes del Research Sprint, por su tiempo, energía y valiosas contribuciones durante las últimas ocho semanas.

Eriol lleva más de 15 años trabajando como diseñador en empresas con ánimo de lucro, ONG y organizaciones de software libre, dedicándose a problemas complejos como los sistemas alimentarios sostenibles, la consolidación de la paz y la tecnología de respuesta a crisis. Actualmente, Eriol trabaja en proyectos de diseño, investigación, código abierto y tecnología en Superbloom.
También forman parte de los equipos principales de Open Source Design y del grupo de trabajo Human Rights Centred Design, así como del grupo de trabajo Sustain UX & Design, y colaboran en la presentación de un podcast sobre código abierto y diseño.
Eriol es una persona queer no binaria que utiliza los pronombres «ellos/ellas».

Un diseñador de experiencia de usuario impulsado por la complejidad que se esconde tras lo que parece sencillo, cómo los sistemas y las historias dan forma a la forma en que las personas experimentan la tecnología. Mi trabajo explora cómo el diseño puede hacer que la profundidad técnica resulte humana y transparente.
Autor de investigaciones publicadas sobre patrones de experiencia de usuario que preservan la privacidad, cuyo principal resultado es un catálogo de patrones de privacidad de interfaz de usuario/experiencia de usuario para ayudar a los diseñadores a incorporar dichos patrones en las interfaces cotidianas.
.jpg)
Suzie Dunn es directora del Instituto de Derecho y Tecnología y profesora adjunta en la Facultad de Derecho Schulich de Dalhousie. Su investigación se centra en las intersecciones entre la igualdad, la tecnología y el derecho, con especial atención a la violencia de género facilitada por la tecnología, la inteligencia artificial y los deepfakes. Es investigadora asociada en un proyecto de investigación financiado por el SSHRC sobre las experiencias de los jóvenes con la violencia sexual en línea, DIY Digital Safety. También es investigadora principal del CIGI, donde dirigió la primera fase del proyecto Supporting Safer Digital Spaces(Apoyo a espacios digitales más seguros) del CIGI, y miembro del comité de violenciafacilitada por la tecnología del Fondo de Educación y Acción Legal de las Mujeres ( ) .

Qingyi Ren 任晴宜 es un artista digital no binario e investigador en Ciencia, Tecnología y Sociedad (STS) en el Critical Media Lab Basel, cuyo trabajo explora la intersección entre el arte, la tecnología y la justicia social. Apasionado por desentrañar la compleja red de la teoría de género, la ética de la IA y la identidad digital, actualmente reside en Basilea y dedica su práctica artística a revelar los sutiles sesgos arraigados en el ámbito del aprendizaje automático y su profundo impacto en las identidades marginadas. A través de su arte, que invita a la reflexión, desafía el statu quo e inspira conversaciones críticas en torno a la ética de la inteligencia artificial.

Cade es el fundador de The New Design Congress, una organización internacional de investigación que promueve una comprensión matizada del papel de la tecnología como acelerador social, político y medioambiental. Estudia, escribe, asesora y da charlas con regularidad sobre temas como las estructuras de poder digitales, la privacidad, la guerra de la información, la resiliencia, las economías de Internet y la digitalización de las ciudades.
Caroline Sinders es investigadora y artista especializada en diseño de aprendizaje automático. Durante los últimos años, ha estado estudiando las intersecciones entre el impacto de la tecnología en la sociedad, el diseño de interfaces, la inteligencia artificial, el abuso y la política en los espacios digitales y conversacionales. Sinders es la fundadora de Convocation Design + Research, una agencia centrada en las intersecciones entre el aprendizaje automático, la investigación de usuarios, el diseño para el bien público y la resolución de problemas de comunicación difíciles. Como diseñadora e investigadora, ha trabajado con Amnistía Internacional, Intel, IBM Watson, la Fundación Wikimedia y otras organizaciones.