15 de febrero de 2024

Procesos históricos de individualización e impacto en las esferas privadas compartidas y en la esencia colectiva de la información.

Fabien Lechevalier

En esta entrada de blog, Fabien Lechevalier explora las intrincadas dimensiones históricas y contemporáneas de la privacidad.

manifestantes

El análisis de los procesos históricos de individualización de la privacidad revela que se trata de un concepto complejo y cambiante, a menudo entendido de forma restrictiva por la ley. Inicialmente enmarcado como una esfera privada individual, el concepto hacía hincapié en el secreto y el aislamiento, personificado por la dicotomía esfera privada/esfera pública. Sociológicamente, la intimidad se manifestó primero en las esferas compartidas antes de pasar a las individuales. La noción de esfera privada individual no cobró importancia hasta mediados del siglo XX. Sin embargo, el énfasis jurídico en la protección de la información privada basado en una concepción individualista ha eclipsado el estudio de las esferas privadas compartidas que persiste en la actualidad.

En la era digital, los recientes avances de la tecnología de la información acentúan y transforman la observación de las esferas privadas compartidas. A pesar del proceso de individualización, las esferas privadas compartidas perduran debido a la naturaleza colectiva de la información. Los individuos existen dentro de redes: familias, amigos y grupos en línea. Además, las tecnologías de procesamiento de la información, en particular los Big Data y los algoritmos, introducen una nueva esfera privada compartida al explotar colectivamente los datos individuales. Esta explotación capitaliza los efectos de red, enriqueciendo los datos mutuamente y produciendo nueva información muy útil para el sector privado, el sector público y el interés común. Esta función colectiva de la información, acentuada por el tratamiento algorítmico, encierra un potencial de innovación social y económica, fomentando iniciativas en diversos sectores (sanidad, justicia y, por supuesto, ciudades inteligentes).

Además, pensar en la privacidad como un bien colectivo o relacional induce a pensar que la privacidad es contextual. El marco de integridad contextual (IC) de Nissenbaum conceptualiza la privacidad de la información como normas sociales específicas del contexto, que varían según los entornos y las relaciones. La IC identifica cinco parámetros -sujetos de los datos, remitentes, destinatarios, tipos y principios de transmisión- para modelar las normas informativas relativas al contexto.

Aunque la IC ofrece un marco preciso para entender la privacidad de la información, se enfrenta al reto de determinar las normas contextuales reales y predominantes. Los responsables políticos y los ingenieros, que buscan proteger y respetar la privacidad, deben comprender las expectativas sociales existentes en relación con el flujo de información. La investigación empírica resulta crucial para identificar las expectativas sociales y explorar las normas de privacidad en diversos contextos como la sanidad, la educación y el hogar. Los estudios existentes emplean entrevistas y encuestas para deducir las normas sociales a partir de las opiniones, preferencias y actitudes individuales. Sin embargo, este enfoque tiene limitaciones, ya que no proporciona una respuesta directa a la cuestión de las expectativas sociales reales. Los investigadores deben ir más allá de las perspectivas individuales y considerar los aspectos colectivos para desarrollar una comprensión más completa de las expectativas sociales en relación con el flujo de información en contextos específicos.

Este proyecto se inspira en el trabajo de Daniel Susser y Matteo Bonotti sobre los minipúblicos deliberativos de la OCDE para estudiar normas de integridad contextuales, incorporando principios de diseño participativo y codiseño (literatura sobre diseño jurídico). Al involucrar activamente a los participantes en todas las fases, el diseño participativo los transforma de sujetos pasivos en contribuyentes activos en un proceso deliberativo colaborativo e inclusivo. El consenso buscado se determina colectivamente, reflejando diversas perspectivas. La dimensión del diseño participativo garantiza que los participantes sean cocreadores activos, contribuyendo a una exploración colectivamente determinada de las normas de integridad contextuales. Más allá de una metodología enriquecida con literatura de investigación sobre estudios de diseño, este trabajo propone como caso de estudio la videovigilancia con IA durante los Juegos Olímpicos de París 2024. Aborda las preocupaciones sobre las cámaras de videovigilancia algorítmicas y las implicaciones para la privacidad de confiar a las máquinas la identificación autónoma de comportamientos sospechosos. De hecho, en abril, el Parlamento aprobó una ley relacionada con los Juegos Olímpicos que permite el uso de cámaras algorítmicas. Se ponen de relieve los interrogantes sobre el modo en que estos sistemas disciernen las amenazas y las cuestiones más generales que rodean a las libertades individuales. Noémie Levain, responsable de análisis jurídico y político de La Quadrature du Net, señala: "Detrás de esta herramienta se esconde una visión política del espacio público, un deseo de controlar sus actividades". Subraya que toda herramienta de vigilancia se convierte en una fuente potencial de control y represión tanto para las fuerzas del orden como para el Estado.

Manifestantes participan en una protesta en diciembre sobre los Juegos Olímpicos y Paralímpicos de París 2024 y el uso de cámaras de vigilancia. Fotografía: Geoffroy van der Hasselt/AFP/Getty Images

Este proyecto consta de tres etapas clave para permitir una comprensión exhaustiva de las expectativas sociales en relación con el flujo de información en este contexto específico:

3.1 Etapa 1 (Reclutamiento): Los participantes, reflejo del público en general, forman foros de aproximadamente 20 habitantes de París. Seleccionados mediante muestreo aleatorio estratificado, se garantiza así un grupo diverso e inclusivo, que refleje diversos aspectos demográficos como la edad, el sexo, la ubicación en París, los antecedentes culturales, los tipos de empleo y el entorno familiar. El proceso de selección es vital para fomentar un entorno deliberativo en el que estén representados diversos puntos de vista.

3.2 Fase 2 (Expertos e información): Los participantes tienen acceso a una amplia gama de expertos. Entre los expertos se incluyen profesionales del mundo académico (filósofos, especialistas en ética, politólogos y abogados), representantes municipales (y gubernamentales) (legisladores y funcionarios con experiencia en la elaboración de políticas) y representantes de la industria (responsables de privacidad y protección de datos o profesionales de la ética que ayudan a las empresas tecnológicas a cumplir la legislación sobre privacidad).

3.3 Fase 3 (Deliberación y facilitación): Tras las sesiones informativas de los expertos, los participantes entablan un intercambio deliberativo. El objetivo es alcanzar un consenso (definido como un acuerdo del 80% o más) sobre las normas sociales existentes en materia de privacidad en el contexto específico de la videovigilancia algorítmica. El proceso de deliberación implica evaluar las perturbaciones causadas por esta tecnología y determinar las intervenciones o normativas necesarias. Facilitadores expertos guían las sesiones, fomentando la escucha activa, el compromiso empático y el pensamiento crítico. El trabajo en pequeños grupos permite una deliberación profunda e inclusiva, y se anima a los participantes a reflexionar entre sesiones. El proyecto concluye con un informe compilado de recomendaciones acordadas en colaboración durante el proceso deliberativo.

Claudia Chwalisz, Good practice principles for deliberative processes for public decision making, OCDE 2020.