miércoles, 4 de mayo de 2016

HACIA UN NUEVO HUMANISMO? PIERRE LÉVY, TÚNEZ, 1956

pierre_levy
Pierre Lévy es filósofo y uno de los pioneros en el estudio de las implicaciones de Internet para el conocimiento y la cultura. En Inteligencia colectiva. Por una antropología del Ciberespacio, publicado en francés en 1994 (traducción al español de 2004), describe una inteligencia colectiva diseminada en todas partes, constantemente valorizada y coordinada a tiempo real. Es la inteligencia colectiva humana aumentada por las nuevas tecnologías de la información e Internet. Desde entonces ha estado trabajando en un proyecto magno, la creación de IEML (metalenguaje de la economía de la información), una herramienta para aumentar la inteligencia colectiva mediante el uso del medio algorítmico. El IEML – que ya consta de una gramática – es un metalenguaje que incorpora la dimensión semántica haciéndola computable. Ello permite una representación reflexiva de los procesos de la inteligencia colectiva.
En su obra Semantic Sphere I. Computation, cognition, and information economyPierre Lévy define IEML como una nueva herramienta para la conversión sistemática en conocimiento del océano de datos de la memoria digital participativa, común a toda la humanidad. Un sistema para codificar el significado que permite que las operaciones llevadas a cabo en la memoria digital se hagan transparentes, interoperables y computables.
Este metaleguaje, al formalizar el sentido, permite incorporar una dimensión humana al análisis y explotación del inmenso aluvión de datos en que nos movemos en la sociedad digital. Al mismo tiempo, ofrece un nuevo estándar, capaz de acoger la máxima diversidad y la interoperabilidad, para las humanidades.
En las obras Las tecnologías de la inteligencia e Inteligencia colectiva, defines los medios relacionados con Internet como nuevas tecnologías intelectuales, cuya acción aumenta los procesos intelectivos humanos. Estos dan lugar a un nuevo espacio de conocimiento dinámico, cuantitativo y producido colectivamente. ¿Cuáles son las características de esta inteligencia colectiva aumentada?
Lo primero que tenemos que comprender es que la inteligencia colectiva existe desde siempre. No es algo que deba ser construido. La inteligencia colectiva existe al nivel de las sociedades de animales: en todas las sociedades animales, especialmente las de insectos y mamíferos, y desde luego, la especie humana es un ejemplo maravilloso de inteligencia colectiva. Además de los recursos que los animales tienen a su disposición para comunicarse, los seres humanos disponen del lenguaje, de la tecnología y de instituciones sociales complejas, que, tomadas conjuntamente, crean una cultura. Las abejas tienen inteligencia colectiva, pero sin esta dimensión cultural. Además, los seres humanos cuentan con una inteligencia personal reflexiva que aumenta la capacidad de la inteligencia colectiva. Esto solo se da en los humanos.
Ahora, el punto crucial es aumentar la inteligencia colectiva humana. El mejor modo de conseguirlo es mediante medios y sistemas simbólicos. La inteligencia colectiva humana se basa en lenguaje y tecnología y podemos actuar sobre estos dos aspectos para aumentarla. El primer salto hacia un aumento significativo de esta inteligencia fue la invención de la escritura. Después inventamos medios más sutiles, complejos y eficientes relacionados con esta, como son el papel, el alfabeto o el sistema posicional para representar los números con diez numerales incluido el 0. Todos estos sistemas han llevado a progresos considerables. Posteriormente inventamos la imprenta y los medios electrónicos. Ahora asistimos a un nuevo estadio en el aumento de la inteligencia colectiva humana; es lo digital o –como yo lo denomino– el estadio algorítmico. Nuestra nueva estructura técnica nos permite una comunicación ubicua, la interconexión general entre toda la información y –lo más importante– disponemos de autómatas capaces de transformar símbolos. Con estos tres aspectos, estamos ante una oportunidad extraordinaria para aumentar la inteligencia colectiva.
En ocasiones has definido tres estadios en el progreso del medio algorítmico, previos a la esfera semántica: el direccionamiento de información en la memoria de los ordenadores (sistemas operativos), el direccionamiento de los ordenadores en Internet y finalmente la web, el direccionamiento de todos los datos en una red global, donde toda la información puede ser considerada como formando parte de un todo interconectado. Esta externalización de la memoria colectiva humana y de los procesos intelectivos ha incrementado la autonomía individual y la autoorganización de las comunidades humanas. ¿Cómo esto ha dado lugar a una esfera pública global e hipermediada y a la democratización del conocimiento?
Esta democratización del conocimiento ya está teniendo lugar. Si tenemos comunicación ubicua significa que tenemos acceso a cualquier clase de información casi gratuitamente. Uno de los mejores ejemplos es Wikipedia. También podríamos hablar sobre los blogs, las redes sociales y el creciente movimiento de datos abiertos. Cuando tenemos acceso a toda esta información y podemos participar en redes sociales que sustentan el aprendizaje colaborativo, y cuando además tenemos a nuestro alcance algoritmos capaces de asistirnos en muchas cosas, entonces hay un aumento real de la inteligencia colectiva humana. Un aumento que al mismo tiempo implica la democratización del conocimiento.
¿Cómo participan las instituciones culturales en esta democratización del conocimiento?
Las instituciones culturales están publicando datos de modo abierto, participando en conversaciones generales en los medios sociales, y tomando ventaja de las posibilidades del crowdsourcing, entre muchas otras cosas. También pueden contribuir a una estrategia en la administración del conocimiento abierta y organizada desde abajo.
dialect_human_development
A Model of Collective Intelligence in the Service of Human Development (Pierre Lévy, en The Semantic Sphere, 2011) S = sign, B = being, T = thing.
Recientemente estamos asistiendo al fenómeno que los medios de comunicación de masas han calificado como big data. Nuestra especie produce y almacena datos en una cantidad que sobrepasa las capacidades humanas de percepción y análisis. ¿Cómo se relaciona este fenómeno con el medio algorítmico?
Primero hay que decir que la disponibilidad de grandes flujos de datos solo es una actualización del potencial de Internet. Siempre ha estado ahí, solo que ahora disponemos de más datos y más gente capaz de recuperarlos y analizarlos. Ha habido un gran incremento en la cantidad de información entre la segunda mitad del siglo XX y los inicios del siglo XXI. Al principio solo había unas cuantas personas usando Internet y ahora es casi la mitad de la población mundial la que está conectada.
En sus comienzos, Internet era un modo de enviar y recibir mensajes. Éramos felices porque podíamos enviar y recibir mensajes de todo el planeta. Pero el mayor potencial del medio algorítmico no es la transmisión de información, sino la transformación automática de los datos (mediante software).
Hay que decir que la masa de datos disponible en Internet hoy en día todavía es analizada, transformada y realmente explotada por grandes gobiernos, grandes laboratorios científicos y grandes compañías. Y es esto lo que hoy denominamos big data. En el futuro va a haber una democratización en el procesamiento del big data. Se va a producir una nueva «revolución». Si pensamos en la situación de los ordenadores, al principio, solo las grandes compañías, los grandes gobiernos y los grandes laboratorios tenían acceso a la computación. Hoy, en cambio, asistimos a la revolución de la computación social y la comunicación descentralizada de Internet. Yo espero el mismo tipo de revolución respecto al procesamiento y análisis de los datos masivos.
Grandes compañías de comunicación, como Google o Facebook, están promoviendo el uso de la inteligencia artificial para la explotación y el análisis de los datos. Esto lleva a una predominancia de la lógica y la computación en la comprensión de nuestra realidad. IEML, en cambio, incorpora la dimensión semántica. ¿Cómo este nuevo formalismo es capaz de describir y hacer computable el modo en que creamos y transformamos el sentido?
Hoy en día disponemos de algo denominado web semántica, ¡pero no es semántica en absoluto! Esta está basada en relaciones lógicas entre los datos y los modelos lógico-algebraicos. No hay un modelo semántico en esto. De hecho, actualmente no hay ningún modelo que proponga automatizar la creación de relaciones semánticas de una manera general y universal. IEML va a permitir la simulación de los ecosistemas de ideas generados en las actividades de las personas y reflejar la inteligencia colectiva. Esto va a cambiar completamente el significado de big data porque vamos a ser capaces de transformar estos datos en conocimiento.
Tenemos a nuestra disposición herramientas realmente poderosas, tenemos un enorme, casi ilimitado, potencial de computación y disponemos de un medio donde la comunicación es ubicua, podemos comunicarnos en todas partes y en todo momento, y donde todos los documentos se hallan interconectados. Para mí la cuestión es: ¿cómo vamos a usar todas estas herramientas en un modo significativo para aumentar la inteligencia colectiva?
Es con este propósito que he inventado un lenguaje que computa automáticamente las relaciones semánticas internas. Cuando escribes una sentencia en IEML, este crea automáticamente la red semántica entre las palabras incluidas en la sentencia y muestra las redes semánticas entre estas palabras en el diccionario. Cuando escribes un texto en IEML, este crea las relaciones semánticas entre las sentencias del texto. Adicionalmente, cuando seleccionas un texto, IEML crea automáticamente las relaciones semánticas entre este texto y otros textos contenidos en la biblioteca. Entonces tenemos una especie de hipertextualización semántica automática. El código IEML programa relaciones semánticas y puede ser fácilmente operado por algoritmos (es un «lenguaje regular»). Además IEML se autotraduce automáticamente a los lenguajes naturales. De modo que los usuarios no están obligados a aprender el código.
Lo más importante es que si categorizamos los datos en IEML, este va a crear automáticamente una red de relaciones semánticas entre los datos. Podemos disponer de relaciones semánticas generadas automáticamente dentro de cualquier clase de conjunto de datos. Este es el punto que relaciona IEML con el big data.
Entonces IEML nos ofrece un sistema de metadatos computables que permite automatizar relaciones semánticas. ¿Este podría ser un nuevo lenguaje común para las humanidades propiciando su renovación y progreso?
Todo el mundo va a ser capaz de categorizar los datos como quiera. Cualquier disciplina, cultura o teoría va a ser capaz de categorizar datos a su manera, permitiendo la máxima diversidad, pero mediante un solo metalenguaje, asegurando la interoperabilidad. IEML va a generar automáticamente ecosistemas de ideas con todas sus relaciones semánticas, que van a ser navegables. También vamos a ser capaces de comparar diferentes ecosistemas de ideas de acuerdo a sus datos y los diversos modos de categorizarlos, así como de escoger entre diferentes perspectivas y puntos de vista. Por ejemplo, la misma gente interpretando diferentes conjuntos de datos, o gente diferente interpretando el mismo conjunto de datos. IEML asegura la interoperabilidad de todo ecosistema de ideas. Por un lado, tenemos la mayor diversidad posible y, por el otro, computabilidad e interoperabilidad semántica. Creo que esta puede ser una gran mejora para las ciencias humanas, porque hoy en día las humanidades son capaces de utilizar la estadística, pero este es un método cuantitativo. También pueden usar el razonamiento automático, pero estos son métodos puramente lógicos. Pero con IEML podemos realizar cómputos en las relaciones semánticas, y es solo gracias a la semántica (junto con la lógica y la estadística) que podemos comprender qué está pasando en el terreno humano. Vamos a ser capaces de analizar y manipular el sentido, en esto radica la esencia de las humanidades.
Vamos a hablar del estado actual en el desarrollo de IEML. Sé que es pronto, pero ¿podrías adelantarnos el boceto de algunas de las aplicaciones o herramientas que pueden desarrollarse con este metalenguaje?
Es demasiado pronto, quizá la primera aplicación podría ser algún tipo de juego de inteligencia colectiva, en el que los participantes trabajen conjuntamente para construir el mejor ecosistema de ideas de acuerdo a sus objetivos.
He publicado The Semantic Sphere (La esfera semántica) en 2011; y hace seis meses he completado la gramática con todas las dimensiones matemáticas y algorítmicas. Actualmente estoy escribiendo un segundo libro titulado Algorithmic Intelligence (Inteligencia algorítmica), donde expongo todos los temas relacionados con la reflexividad y la inteligencia. En los próximos meses se publicará (en línea) el diccionario de IEML. Va a ser un primer núcleo, ya que el diccionario debe ser incrementado progresivamente, y no solo por mí. Espero que otra gente contribuya.
El diccionario interlingüístico de IEML asegura que las redes de relaciones semánticas puedan ser traducidas de un lenguaje natural a otro. ¿Podrías explicarnos cómo funciona y cómo incorpora la complejidad y la pragmática de los lenguajes naturales?
La base de IEML es un álgebra conmutativa simple (lenguaje regular) que lo hace computable. Una codificación especial de este algebra (script) permite los procesos recursivos y autorreferenciales, así como la programación de grafos rizomáticos. La gramática algorítmica transforma el código en redes de complejidad fractal que representan la estructura semántica de los textos. El diccionario constituido por términos organizados por sistemas de relaciones simétricos (paradigmas) da contenido a los grafos rizomáticos y dibuja una especie de sistema de coordenadas común para las ideas. Trabajando conjuntamente el script, la gramática algorítmica y el diccionario, se crea una correspondencia simétrica entre diferentes operaciones del algebra y distintas redes semánticas (expresadas en lenguajes naturales). La esfera semántica recoge todos los textos posibles de este lenguaje, traducidos a los lenguajes naturales e incluyendo las relaciones semánticas entre todos estos textos. En el espacio de juego común de la esfera semántica el diálogo, la intersubjetividad y la complejidad pragmática surgen de los juegos abiertos que regulan libremente la categorización y la evaluación de los datos. Finalmente toda clase de ecosistema de ideas –representando los procesos cognitivos colectivos– pueden ser cultivados en un ambiente interoperable.
start-ieml
Schema from the START – IEML / English Dictionary by Prof. Pierre Lévy FRSC CRC University of Ottawa 25th August 2010 (Copyright Pierre Lévy 2010 (license Apache 2.0)
Otro tema pendiente en el progreso de IEML es que, dado que IEML crea automáticamente grafos de relaciones semánticas muy complejos, necesitamos transformar estos grafos complejos en una visualización que los haga utilizables y navegables.
¿Cómo imaginas estos grafos? ¿Puedes bosquejarnos una posible visualización?
La idea es proyectar estos grafos complejos en una estructura interactiva tridimensional. Estos podrían representarse como esferas, de modo que pudiéramos adentrarnos en la esfera correspondiente a una idea particular y disponer de todas las demás ideas de este ecosistema a nuestro alrededor, dispuestas según las diferentes relaciones semánticas. También podríamos ser capaces de manipular las esferas desde el exterior y verlas como si se tratara de un mapa geográfico, dónde acercarnos o alejarnos a través de niveles fractales de complejidad. Los ecosistemas de ideas se mostrarían como hologramas interactivos de realidad virtual, en la web (mediante tablets) y en experiencias de realidad aumentada en 3D, en el mundo físico (mediante las Google glasses, por ejemplo).
Otro tema acerca del que nos gustaría conversar contigo es la alarma social generada en torno a la gran capacidad de Internet para recabar datos y su posible mala explotación. Emergen debates respecto a posibles abusos y a la vulneración de la privacidad. Algunas grandes compañías han propuesto desarrollar códigos deontológicos para regular y prevenir el mal uso de los datos. En tu opinión, ¿puede un conjunto de normas fijas ser eficiente para regular un medio mutable y en evolución como es el medio algorítmico? ¿Cómo puede el uso de IEML contribuir a mejorar la transparencia en este medio?
IEML no solo desarrolla la transparencia, sino también la transparencia simétrica. Todo el mundo participando en la esfera semántica va a ser transparente para los demás, pero al mismo tiempo todos los demás van a ser transparentes para él/ella. El problema de la supervigilancia es que actualmente la transparencia no es simétrica. Quiero decir, la gente es transparente para los grandes gobiernos y las grandes compañías, pero estas compañías y gobiernos no son transparentes para la gente. No hay simetría. Las diferencias de poder entre los grandes y pequeños gobiernos, las grandes compañías y la gente, probablemente continuarán existiendo. Pero crearemos un nuevo espacio público donde esta asimetría se suspenderá y donde los jugadores poderosos serán tratados del mismo modo que el resto de los jugadores.
Para acabar, este último mes el CCCBLab ha celebrado las primeras jornadas de Universo Internet. Estos encuentros han versado en torno a la educación en la época digital. Tú has publicado extensamente sobre este tema. ¿Podrías resumirnos algunos puntos fundamentales para educar a los nativos digitales en la responsabilidad y la participación en el medio algorítmico?
La gente debe ejercer su responsabilidad personal y colectiva, porque cada vez que creamos un enlace, que hacemos un «like», que escribimos un «hashtag», que compramos un libro en Amazon, etc., estamos transformando la estructura de la memoria colectiva. Por lo que tenemos una gran responsabilidad respecto a lo que sucede en línea. Lo que ocurre es el resultado de lo que toda la gente está haciendo conjuntamente. Internet es una expresión de la inteligencia colectiva humana.
Además, debemos desarrollar el pensamiento crítico. Todo aquello que encontramos en Internet es la expresión de puntos de vista particulares, no es ni neutral ni objetivo, sino la manifestación de subjetividades activas. ¿De dónde procede el dinero? ¿De dónde surgen las ideas? ¿Cuál es el ambiente pragmático del autor? Estas entre otras cuestiones. Cuanto mejor conocemos la respuesta a estas preguntas más transparente es la fuente y mayor puede ser nuestra confianza. La noción de hacer transparente el origen de la información es muy cercana a la mentalidad científica. El conocimiento científico debe responder a preguntas como ¿de dónde proceden los datos?, ¿cómo surge la teoría?, ¿de dónde vienen subvenciones? La transparencia es la nueva objetividad.
blogs.cccb.org
El texto de este artículo está bajo la licencia Reconocimiento – NoComercial – SinObraDerivada

1 COMENTARIO



3 comentarios:

  1. Actualmente profesor en el Departamento de Comunicación de la Universidad de Ottawa. De 1993 a 1998 fue profesor en el Departamento Hipermedia de la Universidad de París VIII. Los intereses del profesor Lévy están situados alrededor del concepto de inteligencia colectiva1 y en el de sociedades basadas en el conocimiento. Es un pensador mundialmente reconocido en el campo de la "cibercultura". En 2004, fue elegido como miembro de la Sociedad Real de Canadá. Entre sus trabajos recientes, se ha enfocado en el desarrollo del lenguaje IEML (Information Economy Meta Language) que tiene un fundamento semiótico y que tiene la finalidad de ofrecer un sistema sintáctico de coordenadas para abordar los conceptos que se encuentran en internet.En sus propias palabras: "Hoy en día disponemos de algo denominado web semántica, ¡pero no es semántica en absoluto! Esta está basada en relaciones lógicas entre los datos y los modelos lógico-algebraicos. No hay un modelo semántico en esto. De hecho, actualmente no hay ningún modelo que proponga automatizar la creación de relaciones semánticas de una manera general y universal. IEML va a permitir la simulación de los ecosistemas de ideas generados en las actividades de las personas y reflejar la inteligencia colectiva. Esto va a cambiar completamente el significado de big data porque vamos a ser capaces de transformar estos datos en conocimiento".2
    Lévy es uno de los filósofos más importantes que trabaja en las implicaciones del ciberespacio y de la comunicación digital. En 1990 publicó un libro acerca de la convergencia de redes digitales y la comunicación hipertextual. Entre otros, Henry Jenkins se refiere a Lévy como una autoridad importante de las teorías de inteligencia colectiva en línea.
    En su libro: ¿Qué es lo virtual? (Barcelona, Paidós, 1999), en francés Qu'est-ce que le virtuel? (París, La Découverte, 1995), Lévy relaciona y desarrolla el concepto de "lo virtual", a partir de Gilles Deleuze, como una dimensión de la realidad que subsiste con la actual, pero irreducible a ella. Lévy distingue otros tres estados alternos a lo virtual: lo actual, lo real, y lo posible.es.wikipedia.org

    ResponderEliminar
  2. Es porque nuestra habla dejó de tener consecuencias: queda invalidada todos los días por la maquinaria del saber virtual que cae sobre nosotros. Aunque tenga un mensaje, el habla pierde su peso y, como los ángeles, nuestra apariencia es como la de los autistas. Lo que decimos no cambia en nada un saber que sabe por nosotros.
    En este blog el 7 de noviembre de 2011. El cuerpo en la Posmodernidad

    ResponderEliminar
  3. Martha21 de enero de 2013, 12:26
    La ausencia de corporalidad y el anonimato,conduce a la tranparencia, cómo los ángeles de la Edad Media de los que nos habla San Buenaventura. La misma ligereza que los ángeles.Lacan en su Seminario "Aún",20, nos dice algo con referencia a los ángeles, que son puros significantes dado que no tienen ningún significado.
    El deseo de transparencia que nos ofrece la World Wide Web, nos maravilla, sin embargo, nos priva del derecho a escondernos.
    Hoy frente a la intrusión del Estado en los asuntos íntimos hay que defender, con Benjamin Constant. El sujeto tiene el derecho de mentir y esto contra Kant, también de mentirse a sí mismo. Esto no concierne al Estado ni a nadie. Es problema suyo. Oponerse a los invasores de lo íntimo (micrófonos, cámaras, micro cámaras),impone defender la sombra.
    Gérard Wajcman "El ojo absoluto" pag. 44
    No es inocente mi foto con "Las tres sombras", escultura de Rodin, en este blog. De pronto, que calculen hasta los ahorros que puede tener una "tía, pueblerina", es chistoso, no hay duda. No habla tanto de la tía entrada en años, habla más de quien la pronunció, me parece.
    Expreso estas opiniones, sin despreciar en ningún momento los hermosos momentos que paso frente a mi computadora en este blog. Me interesa la conexión con el saber, más allá de las personas.No busco conocer a nadie por este medio. Me interesa la transferencia de trabajo de intereses comunes y agradezco, a los Vídeos que disfruto y tengo la libertad de subir al blog.
    Este comentario se encuentra en este blog el 7 de noviembre de 2011, en un artículo de Gerard Pommier, acerca del cuerpo en la Postmodernidad.

    ResponderEliminar