Archive for the ‘White Papers’ Category

Serendipidad en el diseño de redes

Thursday, February 4th, 2010

Palabra rara (y fea) como pocas, pero sugerente. Me veo usándola cada vez más en las charlas con emprendedores y con gente que se dedica a la innovación. No es fortuito porque la complejidad de los tiempos que corren encaja bien con la serendipidad.

Proviene del término anglosajón “serendipity” y suele ser traducida de muchas maneras: “serendipia”, “serendipismo” o como titulo este artículo: “serendipidad”.
La “serendipidad” es un descubrimiento afortunado que se produce sin planificación. Se da de forma inesperada, aparentemente por accidente o suerte del destino. Es encontrar algo bueno que no buscabas. Ejemplos de serendipidad hay muchos, incluidos innovaciones tan determinantes como la Penicilina. La Wikipedia achaca a este fenómeno inventos tan variados como el dulce de leche, el celuloide, la estructura del átomo, el principio de Arquímedes, el Teflón e incluso, el mismísimo descubrimiento de América (recordemos que Colón buscaba la India cuando “se encontró” con el Nuevo Mundo).
Por cierto, Nicholas Carr dice que Internet es probablemente “the greatest serendipity engine in the history of culture” por la capacidad que tiene la web de descubrir caminos inesperados y llevarnos por senderos de información que no habíamos previsto. Pero… ¿Y por qué hablo de “casualidad buscada”? Suena contradictorio, pero la serendipidad bien practicada, como estrategia, es precisamente eso: crear condiciones para que las “casualidades afortunadas” se produzcan con más frecuencia en tu vida, o en tu organización. De eso trata este artículo. Los fenómenos de serendipia no obedecen solo a la casualidad sino también a una actitud que los propicia, y que se traduce en ser curiosos, flexibles y sagaces.
John Adair, en su excelente libro “The Art of creative Thinking”, dedica todo un capítulo a la “práctica de la serendipidad”. Comienza su exposición citando a Marcel Proust: “the real magic of discovery lies not in seeking new landscapes but in having new eyes”, lo que nos recuerda que la serendipidad nace de la curiosidad y del foco abierto. Hay que estar preparados, nos dice, para esperar lo inesperado.

Serendipidad y planificación

La serendipidad refleja algo que el viejo management se ha empeñado en desdeñar siempre: el fascinante poder de lo aleatorio en los procesos de innovación y creatividad, y que cristaliza desde una actitud de “dejarse llevar” que niega la sobreplanificación y cree en la magia de las conexiones espontaneas. Siempre se nos ha dicho que hay que planificar, prever, definir caminos, fijar objetivos y en definitiva, identificar con claridad qué buscamos y cómo en cada momento. No es un mal consejo, pero se ha abusado de ello, hasta el punto que la obsesión por la planificación ha llevado a construir modelos tan eficientes como rígidos y poco creativos.
Un ejemplo útil, aunque algo manido, de serendipidad en el proceso de innovación es el Post-it de 3M. No se buscaba un pegamento así pero se encontró uno mejor, y fue posible gracias a que había una persona, y sobre todo un sistema, que estimulaba la innovación espontánea y estaba preparado para “ver” más allá de lo previsto. Lo que puede parecer un simple golpe de suerte es a menudo una cultura que se estimula conscientemente.

Serendipidad en el diseño de redes

La serendipidad adquiere cada vez más significado en el diseño y promoción de redes. Algunos decisores públicos se empeñan, por ejemplo, en sobreorganizar los clusters y las redes de innovación, poniendo múltiples normas y definiendo una retahíla de objetivos sosos e inalcanzables. Se pretende con ello generar “lazos fuertes”, casi orgánicos, en forma de alianzas, fusiones y contratos, y es así como tienden también a medir los resultados de forma maximalista. Sin embargo, la gracia de las redes no está solo en esas expresiones tan formales de las conexiones, sino también en los llamados “lazos débiles”, que se tejen entre personas que consiguen sintonizar en medio de la fiesta gracias a que pueden compartir con libertad en un espacio abierto y sobre todo, pensado para la conversación.

Por Amalio A. Rey

Ver articulo completo en: eMOTOOLS

Narrativas transmediáticas: novedades del frente cross-media.

Thursday, February 4th, 2010

Por Carlos Scolari
El estudio y la reflexión sobre las narrativas transmediáticas no se detiene. En este post pasaré revista a algunos conceptos, teorías y modelos que han surgido en los últimos meses. El post puede ser leído como una continuación de otro publicado en Hipermediaciones en mayo del 2009 (“Narrativas transmediáticas: breve introducción a un gran tema“) y del artículo del International Journal of Communication (“Transmedia Storytelling: Implicit Consumers, Narrative Worlds, and Branding in Contemporary Media Production”). ¿En qué anda Henry Jenkins? ¿Qué propone Jeff Gómez?

Los siete principios de Henry Jenkins
Henry Jenkins, además de haberse mudado desde el MIT (Boston) hacia la Universidad de Annemberg (California), ha estado muy activo en el frente transmediático. Además de algunas entrevistas sumamente interesantes (Ver enlace en Hipermediaciones) ha propuesto unos principios que caracterizarían a estas formas de comunicación (aunque, más que “principios”, se trata de tensiones que atraviesan el mundo de las narrativas transmediáticas):
1. Spreadability vs. Drillability:
2. Continuity vs. Multiplicity:
3. Immersion vs. Extractability:
4. Worldbuilding:
5. Seriality:
6. Subjectivity:
7. Performance:

Nota Completa en Hipermediaciones

Un análisis de la Teoría de la Evolución a través del InfoDesign de Ben Fry

Sunday, December 27th, 2009

La evolución de “La Teoría de la Evolución” de Darwin

El Infodesigner Ben Fry, especialista en visualización de datos, ha comparado todas las ediciones en un programa visual que permite ver en qué edición se produjeron los cambios. Cada modificación en cada edición tiene un color diferente. La Teoría de la Evolución enunciada por Charles Darwin en “El Origen de las Especies” no es una verdad estática, como algunos piensan que ocurre con las teorías científicas correctas, sino un conjunto de ideas vivas y cambiantes. Desde su primera edición en Noviembre de 1859 hasta la última en 1872, a lo largo de las seis ediciones escritas por Darwin, hubo numerosas modificaciones y añadidos. Aunque el núcleo central de la teoría permaneció inmutable, se añadieron matices, se acentuaron ciertos enfoques, se minimizaron otros, y se replicó las críticas a las que la teoría estaba siendo sometida. Incluso hay cambios completos de ideas. En estos trece años, los datos se iban acumulando, permitiendo una visión más precisa y detallada. Mientras que la primera edición contenía unas 150.000 palabras, en la última se alcanzan las 190.000.

Algunos datos curiosos que Ben Fry detalla es que en el párrafo final de la Segunda edición se añade un “…por el Creador”, probablemente para suavizar las virulentas críticas religiosas recibidas en la Primera. O que la famosa frase de “la supervivencia del más apto” no apareció hasta la Quinta edición, y no es original de Darwin, sino del filósofo Herbert Spencer.

Los algoritmos de comparación entre textos son una herramienta realmente potente para establecer proximidades y diferencias. Aunque el que se emplea aquí aún es un poco lento de cargar y el gran volumen de información simultánea empleada hace que el análisis con detalle sea un tanto arduo. Sería interesante comparar las modificaciones introducidas en las décadas posteriores a la desaparición de Darwin, para ver cómo se forja la actual Teoría Sintética de la Evolución. Claro que, como los textos en este caso son distintos y de distintos autores, la tarea es compleja. Si, además de colores, se establecen datos numéricos de comparación, tendremos cifras para ver la cercanía o lejanía de un texto con otro. En el resultado se constata que en la evolución cultural de la Teoría de la Evolución se dan modificaciones y añadidos de ideas muy similares a las que se observan cuando se comparan genomas filogenéticamente cercanos. Las nuevas ideas se encajan en determinados sitios, en el contexto que les corresponde, mientras que las mutaciones genéticas también sólo son operativas en su ubicación concreta. Así, por ejemplo, la Segunda edición de “El origen de las Especies” es más similar a la Primera de lo que lo es la Sexta. Y la Sexta a su vez está más emparentada con la Quinta que con la Segunda. Exactamente igual a las comparaciones de genomas en organismos emparentados con relación descendiente-antecesor. En consecuencia, esta herramienta y otros algoritmos parecidos podrán ayudar a establecer qué texto o conjunto de ideas deriva de cual. Otra vez, la evolución cultural y la biológica pueden examinarse empleando técnicas similares.

Ver la aplicación: The Origin of Species por Ben Fry

Fuente: Memecio - Evolución cultural, prolongación de la biológica, Ben Fry- Blog Personal

El ecosistema de las plataformas de networking

Tuesday, July 7th, 2009

Por Isidro Maya Jariego. Universidad de Sevilla


Where I’ve Been Lately (Thomas Hawk)

Facebook, Twitter, MySpace, Econozco, Xing, Tuenti, Linkedin, Orkut, Neurona, Sclipo, hi5, Flickr… La lista es innumerable. Esto nos dice algo importante al respecto de las “redes sociales” on line. Cada sitio es un espacio de socialización por sí mismo. El usuario da de alta su perfil en una red de contactos preexistente. Es un contexto que delimita las oportunidades para la interacción y es el punto de partida para el crecimiento de la red. No obstante, vistas en su conjunto, constituyen un ecosistema de plataformas de networking.

¿Qué implicaciones tiene concebirlas como un ecosistema? Un sitio de networking ofrece, entre otras cosas, un conjunto de contactos (como una colección de tarjetas de visita). En la práctica son alternativas hasta cierto punto redundantes. Se trata de redes que se solapan parcialmente, en función del comportamiento de los usuarios y de la inter-operabilidad de las mismas. Desde el punto de vista del usuario el desarrollo de sus redes personales depende de su posicionamiento en el ecosistema. Desde el punto de vista de las plataformas, la gestión del servicio va más allá de los límites que establece su propia red. Desarrollemos brevemente estas dos perspectivas.

* Hay grandes diferencias individuales en el uso de “redes sociales”. Podemos pensar en una tipología de usuarios. Por ejemplo, hay individuos que optan prioritariamente por una plataforma de referencia. Otros combinan varias simultáneamente, a veces con un uso diferenciado de cada una de ellas. Unos pocos son muy activos, mientras que muchas personas, en cambio, se mantienen simplemente al margen de las aplicaciones para el intercambio de perfiles.

* Detrás de esta combinatoria de individuos y “redes sociales” hay patrones de relación diferenciados, en los que se ponen en juego las preferencias y las estrategias personales. Un caso paradigmático es la distribución de contactos entre plataformas. Es frecuente encontrar usuarios que hacen un uso especializado de cada sitio de networking. Por ejemplo, separando a los contactos netamente profesionales de la familia y los amigos. O bien estableciendo, de forma más o menos consciente, diferentes segmentos en función de la intensidad de la relación. Hablamos también de la tendencia a congregar o separar a los miembros de la red personal o del grado de disonancia cognitiva que el individuo está en condiciones de tolerar.

Como vemos, en el plano individual se despliegan competencias específicas para manejarse en este contexto. A veces conlleva saber dirigirse a diferentes audiencias, adaptar las estrategias de comunicación a la amplitud y las características del grupo, conocer estrategias de difusión de la información en red, modular el discurso público y privado, o cultivar la reputación mediante la acción individual y la interacción con terceros. Es necesario saber adaptarse al contexto de interacción. Enrique Dans ha proporcionado un buen ejemplo recientemente de la complejidad de estrategias que se ponen en práctica para gestionar diversas audiencias y relaciones con los sistemas de microblogging.

Por lo que respecta a las plataformas se requiere una visión amplia de la relación de los usuarios con las “redes sociales”. Un ejemplo en contrario lo proporciona la manera en la que se produce normalmente la integración de varias herramientas. La fusión de dos o más Sitios de networking no es sólo una ampliación de los recursos que se ofrecen a los usuarios a través de la acumulación de contactos. Es, de hecho, una transformación del ecosistema de redes sociales. Por ejemplo, hace dos años en mi caso personal disponía de contactos con estudiantes en Neurona y lazos profesionales débiles (conocidos) en Econozco. La adquisición consecutiva por parte de Xing de ambas plataformas se vendió como un crecimiento de la red de contactos. Sin embargo, una “fusión” de redes no necesariamente se traduce en una suma de contactos. Al contrario, pone a algunos usuarios en la tesitura de mezclar espacios sociales diferentes, o bien renunciar al tiempo invertido en el desarrollo de perfiles y la gestión de contactos en al menos una de las plataformas.

Por Isidro Maya Jariego.
Universidad de Sevilla

GEERT LOVINK: Sobre Tácticas y Comentarios.

Sunday, January 25th, 2009

Por Horacio Lotito.

Corrían los tempranos años de la década del ‘90 cuando el crítico de los “new media” Geert Lovink emergió como uno de los activistas más prolíficos del ámbito del arte y de las nuevas tecnologías de información. Junto con otros activistas y pensadores de la convergencia entre arte, diseño y activismo político idearon un concepto teórico que los englobaba en una serie de ideas generales: los medios tácticos (Tactical Media).

Se trataba de un campo de trabajo que agrupaba a distintos profesionales en la búsqueda de “una forma artística autorreflexiva” que lograse vincular las formas del arte “con mayúsculas” con el activismo político y de esta forma lograr una síntesis eficaz para intervenir de manera directa y activa en campañas políticas diversas. Una de las consecuencias de este movimiento fue la emergencia de las conferencias “Next 5 minutes

Como teórico y critico de los nuevos formatos audiovisuales y de los nuevos medios sus núcleos de interés se han diversificado aunque como director del Institute of Network Cultures de Amsterdam –del cual es fundador - sus esfuerzos por aunar distintos especialistas del ámbito del arte, video, arquitectura y diseño en la conformación de una mirada crítica y activa sobre el papel de los nuevos medios es una marca visible. Prueba de ello resultan las diversas conferencias, charlas, festivales y proyectos que el instituto lleva en marcha en la actualidad.

Esta diversificación de los intereses de Lovink queda reflejada en los libros publicados en hasta el momento. Desde el fundacional “The ABC of Tactical Media” de 1997, pasando por Dark Fiber de 2002 –la única obra traducida al castellano hasta el momento (Fibra Oscura), su obra se inscribe en lo que él mismo ha denominado la cultura crítica de Internet (critical Internet culture). Su último libro hasta el momento es “Zero Comments”, donde traza las directrices para una teoría general del bloggin en la web 2.0. En está obra, el crítico holandés focaliza en lo que define como el “impulso nihilista” de los blogs.

Y si bien el título puede llamar a confusión dada la carga múltiple de este adjetivo, el sentido que le dá Lovink al nihilismo parte de la idea de una anulación de la influencia de los grandes medios de comunicación dominantes y de cómo se configura este territorio personal en donde se dan espacios de reflexión sobre las propias prácticas, de pensamiento sobre uno mismo y sobre el mundo mediatizado. Mientras que por otro lado, sus reflexiones abordan además las influencias en el desarrollo del bloggin y de Internet en las prácticas diversas que surgen en geografías “no anglosajonas” (Brasil, Rusia, China, India, etc.), y de cómo estás experiencias entran en colisión y conflicto con la centralización de la información y la consolidación de Monopolios/Oligopolios.

Por Horacio Lotito

Más sitios de referencia sobre Geert Lovink:
The Institute of Network Cultures
Video Vortex
Fibra Oscura

Video de Geert Lovink donde presenta su teoría en la EGS de Suiza:

Cuando las cosas están claras, la gente las entiende. Dave Gray.

Sunday, September 14th, 2008

Dave Gray analiza el mundo actual donde vivimos bajo el peso de la saturación informativa, procedente de la televisión, Internet, periódicos, libros… Hay quienes se plantean si es buena para el público esta situación desde diferentes posiciones desde la tecnofilia hasta la tecnofobia. Dave Gray, CEO y fundador de XPLANE y experto en la comunicación visual.

Lo cierto es que buena o mala la situación de hiperconexión, es ciertamente una tendencia, y parece imparable. Richard Saul Wurman acuñó el término “ansiedad informativa” para describir el sentimiento que se apodera de la gente al enfrentarse a esa infinita cantidad de datos. A medida que el mundo se vuelve más y más interconectado, este sentimiento sólo puede empeorar, hasta que logremos dar con medidas eficaces para afrontarlo.

Está claro que las cosas que hacemos ahora no funcionan, y la comunicación visual puede ayudar.
La comunicación visual es cualquier forma de comunicación primariamente gráfica. Esto incluye, por ejemplo, cosas como los gestos o el lenguaje corporal, y también mensajes pictóricos como los que vemos en mapas, señales de tráfico, televisión y otros sitios. La comunicación visual nos rodea, es inevitable. Estamos presenciando la emergencia de un lenguaje visual global, en el que la gente usa cada vez más Internet para comunicarse de forma gráfica.

La Red es, por su propia naturaleza, un medio de comunicación visual. Además, cada vez es más fácil comunicarse visualmente porque los anchos de banda y el almacenaje son más rápidos y baratos. Y también las herramientas son cada vez más baratas y fáciles de utilizar. Aparatos como las cámaras digitales, los teléfonos con cámara y las webcmas también ayudan. Webs como Flickr o YouTube son ejemplos de esta tendencia emergente hacia la comunicación visual.

Desde XPLANE se centran en ayudar a empresas a desenvolverse en entornos inciertos y variables. Sus clientes son empresas innovadoras y líderes de sus industrias, que saben que una estrategia de comunicación clara y concisa es la mejor forma de afrontar con éxito los cambios. Ya sean cambios internos, como cambios tecnológicos, de procesos o externos, como lanzar nuevos productos o tecnologías, la claridad debe ser la primera prioridad. Cuando las cosas están claras, la gente las entiende. La gente que comprende toma mejores decisiones, lo que conduce a acción y resultados.

Una de las formas en las que ayudan a las empresas a ser más flexibles y rápidas es haciéndoles visualizar cosas que no se representan habitualmente en imágenes. Dice Dave Gray, por ejemplo, les ayudamos a representar su visión de la empresa, su cultura, estrategias y procesos, de forma que todos aparezcan “en el mismo barco”. Y hacemos esto también para nosotros mismos. Por ejemplo, hemos dibujado nuestra filosofía empresarial como guía para ayudar a tomar mejores decisiones. Lo que no puede ser visualizado, no puede ser logrado: si algo no se puede dibujar, entonces no se puede conseguir.

Por Esteban Javier Rico

Fuentes:
Entrevista de Carlos Corredor a Dave Gray en Baquia.com
Blog Personal de Dave Gray

La emergencia de un lenguaje visual global

Saturday, August 23rd, 2008

Dave Gray

Por Dave Gray

Hace dos millones de años surgieron las primeras civilizaciones claramente reconocibles como humanas. Esos primeros individuos -llamados Homo Erectus, u «hombre de pie»- construían y utilizaban herramientas complejas, formaban sociedades, migraban a lo largo de grandes distancias, dominaban el fuego y cocinaban alimentos, todo ello sin palabras. Estos primeros humanos tenían el 80 % de la capacidad cerebral de los humanos modernos, pero a pesar de ello les era biológicamente imposible hablar. Se comunicaban de manera visual, a través de gestos, observación y mímica. No fue hasta mucho más tarde -25.000 años atrás- que se hizo manifiesta en las pinturas realizadas en cuevas una habilidad humana avanzada para dibujar y pintar, como los bellos y famosos ejemplos de Altamira, en el norte de España.

Posteriormente, hace 6.000 años, apareció la escritura. El papel -como era de esperar– fue inventado por un administrativo unos 4.000 años más tarde. La combinación de escritura y papel permitió compartir información compleja entre puntos muy distantes. Por ejemplo, los exploradores podían dibujar y compartir mapas, esbozos y detallados registros de sus descubrimientos.

La industria editorial nació en 1440, cuando Gutenberg inventó la imprenta. Por primera vez, las palabras escritas se podían producir en masa, lo que abarató los libros. Gracias a la imprenta, las palabras eran mucho más fáciles de reproducir que las imágenes: con apenas 100 caracteres alfanuméricos se podía transmitir casi cualquier cosa en la mayoría de las lenguas escritas, mientras que una imagen requería ser creada de manera única. También existían otras restricciones: las palabras debían disponerse con cuidado en líneas y columnas. De vez en cuando, se podían insertar imágenes para ilustrar el texto, pero todo debía estar minuciosamente colocado de acuerdo con una cuadrícula.

La imprenta dio lugar a una poderosa industria. Las monarquías se desmoronaban gracias a que la voz del pueblo, a través de panfletos y opúsculos, podía por fin competir con las voces de sacerdotes, reyes y reinas. La era industrial de la edición llegó a su punto culminante con la inmensa industria global del entretenimiento de finales del siglo XX. En la actualidad, gigantes del entretenimiento como Fox, Viacom, Disney o Sony dominan la cultura global porque controlan la mayor parte de lo que la gente ve u oye. A su vez, esto les proporciona un gran poder de influencia sobre lo que el mundo piensa y siente. Pero esta circunstancia tiene los días contados y las corporaciones lo saben. En el siglo XXI, la comunicación ha entrado en la era digital. El poder del sector editorial, como el de la informática, se abarata a marchas forzadas, hasta que llegue un punto en que serán tan baratos y estarán tan extendidos como el papel hoy en día.

Todo empezó en 1984, cuando Apple presentó el ordenador Macintosh y la novedosa interfaz gráfica de usuario (conocida por la sigla inglesa GUI). Por vez primera, la gente de a pie podía interactuar visualmente con un ordenador mediante ventanas, iconos, carpetas y papeleras. Personas que nunca se habían considerado afines a la informática tenían acceso ahora a una poderosa herramienta para sus tareas creativas que les permitía conseguir cosas que nunca antes habían podido hacer. Finalmente cualquiera podía convertirse en editor: con muy poca inversión la gente era capaz de diseñar sus propias tarjetas de visita, catálogos, logotipos e incluso revistas. Este fenómeno, que horrorizó a los editores profesionales, recibió el nombre de «autoedición». «El mundo nunca volverá a ser igual», dijeron. «Sin formación profesional, la gente abusará de este poder». Y tenían razón. Proliferaron los malos diseños. Los logos mal diseñados, los folletos mal diseñados, las newsletters mal diseñadas o las revistas mal diseñadas acabaron siendo la norma, cuando antes habían sido la excepción.

La edición implica tanto la creación como la distribución de la información. La revolución de la autoedición había resuelto el problema de la creación, pero, en 1984, para distribuir una revista todavía se necesitaba imprimirla y enviarla, y para distribuir un video era necesario emitirlo. Y eso resultaba caro. Sin embargo, en 1991 Tim Berners-Lee inventó otra revolución en la comunicación visual: el explorador web. En la actualidad, gracias al explorador, cualquiera puede publicar sus ideas por lo que cuesta la conexión a Internet. El precio de crear y publicar información se está reduciendo rápida e inexorablemente hasta cero.

La industria editorial se ha apoyado en la indolencia de la gente, en su consentimiento a dejarse llevar y en su deseo de recibir información; el mismo error que la autoridad establecida lleva cometiendo desde el principio de los tiempos. No tienen en cuenta un hecho crucial: la habilidad para jugar con herramientas potencia la alfabetización, y cuanto más alfabetizada esté la gente, más se implicará.

Los niños juegan con papel y lápices para aprender a dibujar y escribir. De la misma manera, a medida que la gente ha ido jugando con ordenadores, ha desarrollado sus capacidades de comunicación visual y, interactuando con herramientas de comunicación digital, como Internet, ha visto potenciada su alfabetización visual.

Hoy volvemos a ser libres. Paradójicamente, ahora que todo se ha visto reducido a ceros y unos, la imaginación es nuestro único límite. Resulta interesante que continuemos constriñéndonos a la cuadrícula cuando ya no es necesaria. Las convenciones de la imprenta, que en el pasado liberó las ideas permitiendo su producción en masa, se han transformado en la actualidad en una prisión.

¿Qué nos depara el futuro? Observemos a los niños. En los setenta empezamos con los videojuegos y, a pesar de que entonces no éramos conscientes de ello, estábamos aprendiendo a interactuar con las tecnologías digitales. Estábamos aprendiendo las habilidades de coordinación manual y visual que necesitaríamos para emplear los ordenadores de los ochenta.

Los juguetes de hoy son las herramientas del mañana: blogging, podcasting, photosharing, videoblogging… Esos son los primeros indicios. La gente graba sus propias películas y hace públicas sus ideas ante el mundo. Con cada año que pasa, la tecnología se vuelve más barata y fácil de usar.

Lo que estamos observando hoy en Internet es la emergencia de una auténtica cultura global, una cultura que se comunica visualmente. Personas de todo el mundo se divierten con juguetes de pensamiento visual («visual thinking»), con lo que la alfabetización visual se va incrementando poco a poco. Estamos en el proceso de aprender a comunicarnos visualmente; estamos siendo testigos de la emergencia de un lenguaje visual global.

Dave Gray: CEO y fundador de XPLANE y experto en Comunicación Visual.
Artículo original publicado en If Innovación

Entrevista a Francisco Varela

Saturday, August 23rd, 2008

En 1981, dos científicos norteamericanos recibieron el Premio Nobel por contribuciones a una teoría que ya se ha vuelto insostenible. La neurología y la biología se desarrollan con tanta rapidez que el honorable Comité Nobel ya casi no puede acompañarlas. Mientras tanto, los nuevos conocimientos obligaron a apartarse de los clichés provistos por la física. Grande ha sido el mérito del biólogo Francisco Varela, cuyos trabajos científicos marcaron este camino de rumbo. Parece ser, que los seres vivientes no siguen ciegamente las presiones adaptativas, impuestas por una dura realidad externa. Tanto para la célula, el cerebro humano o para la historia de la evolución toda rige más bien el que una vez cumplidas las exigencias básicas de la vida, los sistemas vivientes gozan de plena libertad de crearse su propio mundo.

Según Francisco Varela el paradigma del procesamiento de la información domina la ciencia desde mediados de la década del ‘50, cuando la computadora se convierte en una poderosa herramienta para la investigación.

Este modelo tuvo su utilidad además, por cuanto ofreció por primera vez una metáfora acerca de cómo tenían lugar la percepción y el pensamiento en el cerebro humano. ?Pero tarde o temprano, el desarrollo científico alcanza un punto de saturación en el cual la teoría agota sus posibilidades y comienza a frenar el avance propio de conocimientos. ?Admitiendo que el sistema nervioso procese información como una computadora, deben existir un Input y un Output perfectamente definidos; entre ambos sucede algo que es útil, que es adaptativo o algo similar. Si bien esto parece bastante esclarecedor, hay numerosos experimentos que demuestran las limitaciones de este modelo, siendo demasiado simplista para interpretar el funcionamiento del sistema nervioso. ?Las investigaciones clásicas sobre los llamados detectores de propiedades “específicos del sistema visual” (por las cuales recién el año pasado fue otorgado el Premio Nobel a David Hübel y Thorsten Wiesel), intentaron, por ejemplo, clasificar las células nerviosas según las propiedades de los estímulos externos, frente a los cuales éstas reaccionarían con una sensibilidad particular, por e

jemplo líneas, ángulos o direccion es de traslación. Se suponía, que determinados grupos de células nerviosas se responsabilizaba en la extracción de la información externa. Al conocerse más detalladamente las reacciones de las células nerviosas, más claro resultó que era imposible clasificarlas por su sensibilidad frente a determinados factores ambientales. Su forma de actuar, en cambio, parecía mucho más específica, determinada por el modo en que se hallaban entrelazadas entre sí, es decir, por su coherencia interna. Las células nerviosas parecen actuar mucho más como filtros especiales, muestran resonancia frente a determinados diseños de actividad configurados por otras neuronas, pero no reaccionan frente a características especiales provenientes de algún estímulo externo.

Bajar Entrevista completa en PDF: varela_francisco_entrevista