14 de noviembre de 2010

Los nuevos robots ó BOTS

image El título de este post pareciera que propone hablar de un ente cibernético sentado ante una computadora o un teléfono haciendo telemarketing o encuestas, pero la realidad está lejos de ser así. La robótica no solo es hardware –brazos mecánicos en una línea de producción- sino que lo realmente importante es el software que es el “cerebro”.

Antes que nada, empezaría desmitificación la definición de robot. Un robot es un autómata finito, es decir, un algoritmo que genera un proceso repetitivo programado de ante mano para facilitar las tareas a los seres humanos o para abaratar la labor mecánica de obreros u operadores. Es una herramienta especializada en una labor puntual que hace las cosas más eficientemente – en términos de tiempo de ejecución – que una persona.

Poco tiene que ver con la inteligencia artificial aunque a veces parezca. La inteligencia artificial tiene que ver más con la simulación de reacciones netamente humanas pero hasta hoy la capacidad de inferir, es limitada.

Dicho esto, cabe hacer una reseña de los veloces cambios que vivimos en los últimos 20 años - en lo que al acceso a la información refiere- y cómo evolucionó mediante los avances tecnológicos. La intención es ver cómo es que se llegó a la realidad actual de disponibilidad donde la información es una herramienta imprescindible en todos los campos y quienes la manejan corren con una ventaja importante. Tenemos que ser consientes para no quedar atrás. En los ’80 se puso en mano del común de la gente las PCs, un instrumento que podía ejecutar casi cualquier tarea de procesamiento que se le programara dando así un horizonte infinito de aplicaciones.

En los ’90 ocurrió una revolución en la distribución masiva de información de la mano de los nuevos medios tecnológicos de almacenamiento, los dispositivos ópticos y posteriormente Internet.

Inicialmente -en 1992- existió un boom aparejado por el lanzamiento de los que - en aquel entonces - fueron los CD-ROMs. Dispositivos capaces de almacenar más de 1.000 disquetes. Hasta ese momento, la enciclopedia británica y la guía telefónica eran grandes libros o conjuntos de ellos que muchas veces solo servían para vestir bibliotecas.

Los CD-ROMs dieron la posibilidad de distribuir varias veces ese volumen de texto e imágenes en espacios reducidos y de esa manera concebir productos antes impensables.

Pero la enorme cantidad de datos no son información a menos que se procesen y se ofrezcan medios de explotarlos, el caso más común, buscar información dentro del mar de datos o generar estadísticas sobre los mismos convirtiendo los datos en información.

Es así que inicialmente aparecieron recopilaciones de textos, programas o datos, pero después los títulos en CD-ROM se volvieron más sofisticados con sistemas de búsqueda como el de la revista Apertura, periódicos como Ámbito Financiero y El Cronista – enciclopedias o productos de aplicación profesional haciendo posible lo que antes era inimaginable como por ejemplo buscar en toda la jurisprudencia argentina en segundos antecedentes de fallos en fechas determinadas, juzgados o con ciertas partes intervinientes.

Aquí se ve un fenómeno que posteriormente se repite que es la necesidad de ordenar. El medio tecnológico ofrece mayores capacidades de almacenamiento o acceso a datos pero eso no basta y es necesario ordenar ese caos seleccionando, catalogando, listando y buscando según criterios. Inicialmente esto no era posible ya que las bases de datos del momento no estaban preparadas para ser usadas en dispositivos ópticos y no eran eficientes. Las búsquedas tardaban muchísimo y se tuvo que desarrollar nuevos métodos de indexación y recuperación de datos y textos.

A mediados de los ’90 aparece internet como medio de comunicación fundamentalmente mediante el e-mail y empezaron a aparecer las primeras páginas web. Inicialmente institucionales con poco contenido de información.

La primera ola se había disparado y los usuarios no sabían qué había disponible en el ciberespacio y es así que aparecieron los portales; ofreciendo links a distintos lugares de interés común.

Eso sirvió por un tiempo pero en la medida en que la cantidad de páginas web aumentaba en progresión geométrica, se necesitaron nuevas soluciones. Así nacieron los buscadores. Yahoo, Altavista, Inktomi y finalmente Google. Es aquí donde la industria tuvo que adaptar los algoritmos de búsqueda que inicialmente funcionaban en los grandes discos rígidos del pasado (por el tamaño, no por la capacidad) y que posteriormente se utilizaron en medios ópticos a las necesidades del momento. Inicialmente – bases de datos diseñadas para manejar volúmenes de hasta 30.000 registros, después 10 o 20 millones – como puede ser la guía telefónica- y finalmente volúmenes gigantescos de miles de millones de datos. Se decía que Google cuando llegara a los 4.000 millones de paginas webs indexadas dejaría de funcionar por un problema técnico de dimensionamiento de bases de datos. Las que existían tenían ese límite que se creía teórico y que nunca iba a llegar. También se dijo que nadie necesitaría más que 640 K de memoria en una PC – ese fue Bill Gates, hoy con 2 Gb, se tienen 3.200 veces más que eso.

Recapitulando un poco, a principio de los ‘90s, pocas empresas hacían uso de grandes bases de datos – los telemarketers trabajaban con reducidos listados en papel, la policía disponía de la llamada guía verde, que era la guía telefónica pero no por nombre, sino por número, los abogados usaban los grandes volúmenes que ocupaban una biblioteca completa con jurisprudencia argentina, la ley o el derecho, los médicos buscaban en los vademecums en papel y las interacciones medicamentosas eran todo un tema, etc.

En definitiva, se empezó a disponer de una enorme cantidad de información que muchas veces ignorábamos o posiblemente no tomábamos conciencia de la magnitud de la misma. Así como la primera ola comenzó con los sitios web, los portales y los buscadores, la segunda ola comenzó una vez que la masa crítica de usuarios disparó la comercialización online y empezaron a aparecer los sitios de comercio electrónico. Al igual que con las páginas web, se generó el caos de información el cual Google no podía resolver, la búsqueda unificada de las distintas ofertas de un mismo producto. Así nacieron los “price comparison” categoría que incluye a pricegrabber – líder norteamericano o en Argentina a Comparar.com o Cazaprecios. Así mismo, el comercio electrónico dio lugar a los sitios de remate electrónico donde los usuarios muestran claramente la elasticidad de la demanda en función del precio, interés por determinados productos, volúmenes de oferta, etc.

Haciendo un corte hasta ahora, tenemos páginas web, sitios de e-commerce y remates electrónicos. Hasta aquí los periódicos se encontraban totalmente reticentes a publicar sus contenidos gratuitamente en línea ya que entendían que atentaba en contra de la versión impresa. Misma opinión tenían los editores de guías telefónicas que –al igual que los diarios- vendían publicidad en papel que según ellos, era lo que compraban sus clientes.

En este último caso, la distribución en CD-ROM fue un paso intermedio pero que- a diferencia de los diarios- les permitió ahorrar millones en papel y cumplir de todas maneras con las normas del ente regulador que los obligaba a entregar gratuitamente una guía no comercial (blanca) a los abonados. De todas maneras tuvo sus detractores.

Pero la tercera ola llegó – las noticias online fueron una realidad y los periódicos publicaron los contenidos en internet como así también las agencias de noticias y las guías blancas y amarillas pasaron a estar en la web. Y nuevamente el caos surgió con la avalancha de noticias en el ciberespacio y llegó también el orden. En este caso se trató de los agregadores de noticias “news aggregators”, los cuales concentran información de distintos medios y los ordenan y agrupan mostrando diferentes enfoques de lo mismo y permitiendo buscar sobre las noticias del día o sobre un período determinado de tiempo. Pudimos entonces ver la evolución de un tema en el tiempo al igual que con los CDROMs pero hasta hace un minuto y actuar en consecuencia.

A las noticias se sumó la web 2.0 – que no es ni más ni menos que información generada por el usuario donde las publicaciones intercambian información bidireccionalmente, es decir que existe quien escribe y también quien comenta o discute. El mejor exponente de esto es el Blog y alternativamente los foros, donde se destaca notablemente Taringa con un tráfico deseable por muchos de los medios convencionales. Esta modalidad creció de cero a 100 millones en unos pocos años ofreciendo temas tan variados como la mente pueda imaginar.

Los blogs fueron un fenómeno muy particular donde algunos de ellos son visitados por más lectores que muchos periódicos prestigiosos conocidos. Así que los agregadores de noticias incluyeron los blogs también.

Paralelamente a esto se dieron surgimientos de nicho como bolsas de trabajo (donde se puede medir claramente la demanda y oferta laboral), sitios de ventas de autos usados (versión especializada de clasificado), portales inmobiliarios, supermercados online como coto digital o disco virtual.

En definitiva, hoy día es fundamental tener una “presencia correcta en internet”. Cuando la gente quiere saber si una empresa o alguien es importante, la “googlea”. Si busca comprar algo, mira precios desde su escritorio, si busca un trabajo o lo ofrece, si vende o compra algo usado, si se quiere poner al día en política, desea saber un resultado deportivo, cómo va la bolsa, qué se opina sobre un personaje público… internet es importantísimo y el rey es Google mediante el orden en que muestra los resultados de búsqueda que hace que algunas cosas se vean más que otras.

Internet parece abarcar casi todos los aspectos de la vida de una persona y hoy día casi no lo concebimos de otra manera y nos preguntamos cómo es que podíamos vivir sin él. Desde el banco, pasando por la AFIP y hasta para buscar pareja. Hoy día tenemos hasta las fotos de los chicos volcadas a la web.

Internet se ha convertido en un generador de opinión y tan así se ha entendido que las últimas campañas electorales presidenciales en Estados Unidos han tenido una enorme presencia en internet como así también las últimas pasadas en Argentina. Carlos Heller en Facebook y cuando se buscaba un candidato en Google aparecía publicidad del otro partido.

Uds dirán entonces – todo muy bien pero ¿Qué tienen que ver los robots con todo esto? Internet no obra milagros. Son los robots o spyders los que buscan, almacenan y muestran en forma ordenada los sitios que responden a una búsqueda de Google, los precios del producto que busco en los diferentes comercios en Cazaprecios o Confronte, son los robots los que capturan las noticias de diferentes medios y actualiza a los agregadores de noticias. Pero hasta aquí lo que se ve al público. Habiendo tal cantidad de información disponible imaginen lo que puede hacer la competencia con estos datos…

Son robots los que mecánicamente consolidan millones de registros e informan cuán competitivo es –por ejemplo- deremate vs mercado libre o cuáles son los supervendedores que después el departamento de marketing sale a capturar para que el sitio tenga más productos. Son robots los que capturan noticias en tiempo real de las agencias noticiosas, periódicos o blogs e informan a empresarios o políticos sobre eventos, personas o competencia. Manejar las noticias en tiempo puede hacer la diferencia.

Son robots los que capturan datos de los sitios de venta de autos para que sean usados por telemarketers de una agencia para llamar a gente que se sabe que tiene el auto en venta y así capturar clientes.

Son robots los que capturan, analizan y comparan automáticamente decenas de miles de precios de productos de supermercados competencia para evaluar políticas de precios. Son robots los que generan posicionamiento web para desplazar una nota de opinión negativa en el resultado de Google para ser reemplazada por otra positiva en vísperas de una elección y así “manipular” la opinión y eventualmente ganar algún punto extra vital.

Son robots los capaces de analizar la oferta inmobiliaria nacional publicada en internet y detectar así oportunidades de negocio según tendencias y mercados.

Son robots los que en forma automática hacen ofertas en el último segundo de un remate electrónico para ganar la compra de una oportunidad detectada – automáticamente. También son una forma de robot los “crawlers” que recorren información de llamados de Movistar para avisar con un SMS en tiempo real que perdiste un llamado, pero que también son capaces de avisar con un SMS a un tercero a quién estas llamando o de quien estas recibiendo una llamada o dónde estás en un momento determinado.

Estos no son simplemente ejemplos sino aplicaciones reales y existentes que utilizan servicios de información e inteligencia, empresas, entidades gubernamentales y políticos – no es un cuento de ciencia ficción de la CIA.

Los datos están disponibles, solo hay que convertirlos en información útil y eso hacen los robots o mejor llamados en la industria: BOTS.

1 comentario:

Anónimo dijo...

con solo ver la imagen que acompaña al escrito, sin leer una sola línea más allá del título, este artículo para mí ha perdido cualquier indicio veracidad que este pudiese tener

Cuevana - Taringa! - Online - Gratis