lunes, junio 30, 2008

De pronto, UML

Desde hace poco, diversos teóricos y técnicos próximos a Microsoft, han vuelto a hablar de UML y modelado. Como anticipa Stuart Kent, parecería que se ha pasado (de una visión negativa e irónica de UML), a otra que pretende integrar DSL y UML. Probablemente, como lo declara Kent, se trata más bien de allanar el camino a una mayor utilización de DSLs, pero al menos, ahora UML tiene existencia y algún valor...
Dice Stuart Kent:
We've found that DSL Tools is very appealing to customers who've already bought into modeling. It allows them to create their own customized model driven solutions fairly quickly. However, for those not already into modeling it's a harder sell (although, we have had customers who have seen what others have produced and decide to build something similar which focuses on their domain). To really get modeling out to a broader audience it's necessary to have tools that people can use straight out of the box. I'm still convinced that if you want to dramatically increase productivity then you should be using DSLs driving code generators, or further model transformations, or visualizing abstractions discovered from existing artifacts, or some combination of all three. On the other hand, whatever your views are about the effectiveness or not of UML, it has significantly raised the awareness of modeling with a broad audience and it is something that many people are familiar with. So I'm really pleased that Team Architect has now stepped up to drive a strategy that delivers on both sides of the modeling coin, and connects them up.
El cambio es expresado más claramente por Cameron Skinner, referido por Kent:

There has been some speculation in the press recently around Microsoft's commitment to DSLs now that we are planning on supporting five UML 2.1 diagrams in the Rosario release ( Class, Use Case, Component, Sequence, and Activity diagrams ). Specifically, some articles have been written in a way to lead the reader towards a perception that Microsoft is moving away from DSLs and towards UML. Not at all correct! I wanted to take a moment and set the record straight on this, and start a broader conversation.

Let me first start by making one thing very clear: Microsoft is very committed to our DSL strategy, and in particular to the DSL toolkit that ships as part of the VS SDK. In fact, our UML designers are built on top of that toolkit.

I believe that supporting both approaches to modeling gives developers and Architects alike the "right tool for the right job". For those folks who want to analyze and design their architecture using a standard notation that does not imply an implementation decision, use some UML diagrams. UML is great for describing higher level concepts and for defining the initial glossary that can be used to describe the concepts necessary to facilitate broader communication. For those folks who have decided on an implementation strategy, and do not want to be encumbered by the more general nature of the UML to describe that implementation choice, use DSLs.

In the coming months, you will very likely hear me or others on the team talk about using UML at the "logical" layer and DSLs at the "physical" layer. We are really trying to promote a clean separation between the two approaches, while at the same time, attempt to maintain an understanding of how one can inform the other, and vice versa. In this way, we are hoping to more cleanly support the understanding and intent behind the models at each layer.

So this is not a "DSL vs. UML" conversation. This is a "DSL + UML" conversation. And more importantly, this is about meeting our customers where they are and giving them tools that allow them to get to where they need to be.

The true innovation in this space is going to be how we can seamlessly connect the two approaches, and how we can make modeling more central to a broader range of people.

Volveremos sobre esto.

sábado, junio 28, 2008

Facebook o LinkedIn?

Hace alrededor de tres semanas, mis ex-colegas de Chile me invitaron a abrir una cuenta en Facebook: primero uno, luego dos más. Finalmente, aunque me resistía a dedicar tiempo a este tipo de redes, acepté, para mantener contacto con ellos, y recordar lo que ya es irrepetible (Pero este es otro asunto). Luego, otro más me invitó a MySpace, y acepté porque es un colega que lo merece; y finalmente ayer, recibí dos invitaciones de Argentina y Honduras de colegas y amigos con los que no quiero perder contacto para otra red, Tagged, a la que ya había rechazado varias veces (y que continuaré haciendo). El futuro me presenta una tarea: convencer a todos los colegas y amigos a que converjamos en una sola red. No pensaba dedicar tiempo a ninguna; de hecho estaba rechazando invitaciones, y explicando por qué lo hacía. Sin embargo, tengo que reconocer que Facebook tiene aspectos de interés: es un sitio informal para conversar con quienes están lejos, como en general es mi caso, y la oferta de aplicaciones disponibles es más que variada; así como es posible dedicarse a (cientos) de juegos, y estar a un nivel de proximidad adolescente, así también es posible encontrar comunidades de gran interés, expresadas a través de actividades de grupos de afinidad o del uso de aplicaciones. Luego de hacer una revisión de semanas, mi adhesión a grupos dedicados a lenguajes de programación , herramientas y actividades en la Web, trabajo y emprendedores se ha vuelto descontrolada. Sé por experiencia que, andando el tiempo, esas pequeñas comunidades desarrollan intereses comunes sólidos. ¿Cuánto tiempo se le puede dedicar?. Poco; terminaré creando un sistema de alertas, y consolidando las relaciones con una pequeña porción de ese universo.
Un fenómeno curioso, que creo que va camino de la simplificación, es el predominio de la adhesión por naciones: Según comentan, y pude comprobar, Orkut es un excelente sitio para estar en contacto con personas de Brasil, y parecería que también de India. Es abrumadora la cantidad de personas de Chile participando en Facebook.
Pero yendo al asunto inicial, Facebook o LinkedIn?
Tengo la impresión de que las redes del estilo de Facebook son la continuidad con mayor alcance e interactividad, de lo que Messenger o los fotologs representaron: un sitio para conectarse informalmente, mayoritariamente para jóvenes, y para el ocio. Messenger creció por su decidida apuesta a capturar el mercado de los jóvenes; muchas de estas redes no despegan de ese modelo. Y esta es la razón por la que visito Messenger sólo una vez cada tanto, si acaso un amigo o familiar lo usa y tenemos que conversar. De lo contrario, de manera más espartana, se puede conversar con Google Talk. Lo mismo vale para las redes sociales. Estimo que este modelo es su límite. Y LinkedIn (o Xing) representan la reacción a él. Estas redes son, contrariamente, económicas en su presentación, con nula oferta de ocio o expansión informal (ni albumes de fotografía, ni videos, ni expresiones de deseos o fanatismos, ni citas amorosas). Sólo el desarrollo de herramientas de presentación profesional o académica, y de colaboración, con reglas rigurosas de protección de información. No se fomenta el trato indiscriminado, estableciendo un esquema conservador de presentación. Pero el resultado es muy valioso; en mi caso, me ha permitido estar en contacto con colegas que de otra manera difícilmente hallaría. Y las herramientas disponibles me estan ayudando a planificar actividades que de otra manera resultarían complicadas. En el terreno de facilidades para las actividades laborales, profesionales o académicas, comienzan a ofrecer poderosos medios de trabajo.
¿Qué le espera a las redes sociales? Creo que la diversidad que hay ahora se simplificará pronto, y que muchas de ellas están en una carrera para ver quién las compra, y a cuánto. Esto también vale para las profesionales, pero por su propio carácter, creo que un margen de competencia quedará. Sea como sea, en un futuro próximo, creo que me ahorrarán el dilema de qué hacer con tantas invitaciones, porque todo el agua irá al mar.
Finalmente, quiero destacar algunos aspectos señalados por Brad Stone, de New York Times, sobre LinkedIn:
The average age of a LinkedIn user is 41, the point in life where people are less likely to build their digital identities around dates, parties and photos of revelry.
LinkedIn gives professionals, even the most hopeless wallflower, a painless way to follow the advice of every career counselor: build a network. Users maintain online résumés, establish links with colleagues and business acquaintances and then expand their networks to the contacts of their contacts. The service also helps them search for experts who can help them solve daily business problems.
The four-year-old site is decidedly antisocial: only last fall, after what executives describe as a year of intense debate, did the company ask members to add photos to their profiles.
Sobre las bases del negocio de LinkedIn:

That business-only-please strategy appears to be paying off. The number of people using LinkedIn, based in Mountain View, Calif., tripled in May over the previous year, according to Nielsen Online. At 23 million members, LinkedIn remains far smaller than Facebook and MySpace, each with 115 million members, but it is growing considerably faster.

LinkedIn also has a more diversified approach to making money than its entertainment-oriented rivals, which are struggling to bring in ad dollars and keep up with inflated expectations for increased revenue.

LinkedIn will get only a quarter of its projected $100 million in revenue this year from ads. (It places ads from companies like Microsoft and Southwest Airlines on profile pages.) Other moneymakers include premium subscriptions, which let users directly contact any user on the site instead of requiring an introduction from another member.

A third source of revenue is recruitment tools that companies can use to find people who may not even be actively looking for new jobs. Companies pay to search for candidates with specific skills, and each day, they get new prospects as people who fit their criteria join LinkedIn.

Un aspecto que se incrementará, pero que ya está presente, es el lugar que las empresas tendrían:

LinkedIn is set to undergo a radical shift in strategy to find other sources of revenue. Instead of catering primarily to individual white-collar workers, the site will soon introduce new services aimed at companies. It is a risky move that could alienate members who prefer to use the networking site to network — without their bosses peering over their shoulders.

One new product, Company Groups, automatically gathers all the employees from a company who use LinkedIn into a single, private Web forum. Employees can pose questions to each other, and share and discuss news articles about their industry.

Soon, LinkedIn plans to add additional features, like a group calendar, and let independent developers contribute their own programs that will allow employees to collaborate on projects.

The idea is to let firms exploit their employees’ social connections, institutional memories and special skills — knowledge that large, geographically dispersed companies often have a difficult time obtaining.

(...) “It will be extraordinarily challenging to simultaneously serve as a corporate tool and yet promote the ‘brand of me’ in an emerging free-agent nation,” said Keith Rabois, a former LinkedIn executive who is now vice president at Slide, a maker of applications for social networks.

Jeffrey Glass, a partner at Bain Capital, says his firm invested in LinkedIn primarily because it is now becoming popular enough to introduce these kinds of products to companies and other organizations, like universities.

“This is a powerful tool because inside the corporation, there are massive bodies of knowledge and relationships between individuals that the corporation has been unable to take advantage of until now,” he said.

Reid Hoffman, de la dirección de LinkedIn, y anterior inversor en Facebook, compara ambos:

(...) he said that most members of Facebook who are older than 30 use it for entertainment, like playing Scrabulous, a version of Scrabble — not for doing their jobs.

“Scrabulous is not work, and it does not enable you to be an effective professional,” he said.

miércoles, junio 18, 2008

Firefox 3.0: record de descargas

Firefox 3.0 se acerca a los nueve millones de descargas, con casi un cuarto de las descargas en Estados Unidos...Veremos cómo termina el día inicial (ver en su sitio)

lunes, junio 16, 2008

Google/Yahoo/Microsoft ¿Un solo ganador?

Varios sucesos de los últimos días en las negociaciones entre Yahoo y Microsoft, y el seguimiento cercano de Google, quizá impliquen un cambio futuro de tendencias. Por lo menos, probablemente representan una ventaja de negocios para uno de los participantes, Google. Las negociaciones han puesto a Yahoo en una situación débil, con un frente interno dividido, que le ha acarreado una gran pérdida de valor de bolsa. Su acuerdo con Google, si bien le asegura un ingreso de ganancias, lo convierte en un asociado dependiente de su competidor. Para Microsoft, la puja por su competidor ha significado reconocer en qué áreas no ha conquistado posiciones, hasta el punto de su retiro del mercado de avisos.
Sin duda, Microsoft seguirá siendo robusta, aunque un poco menos, Google más próximo, y Yahoo será una incógnita, dividida entre una dirección que no parece saber conducir la empresa, y un grupo importante de accionistas interesados en cambiar un proyecto por dinero contante y sonante.
Quizá lo más notable sea lo que varios analistas han expresado en estos días: Microsoft parece no adaptarse a las nuevas características del mercado. Juan Freire lo ha descripto bien hace pocos días:
Microsoft no deja indiferente a casi nadie, ni como empresa ni por sus productos y su defensa de los estándares propietarios. La corta pero intensa historia de la era digital nos explica que la irrupción de Internet significó un drama para los responsables de Windows. Su error de cálculo los colocó en desventaja en la carrera por ofrecer productos y servicios en la web, a pesar de su posición inicial provilegiada. Pero quizás lo más importante no sea este retraso en la llegada al mercado, algo que con su tamaño y capacidad podría acabar por resolver. Puede que sea más crítico para el futuro de Microsoft su incapacidad para generarar en su organización el cambio cultural que significa la transformación desde la era industrial, donde nació y se desarrolló, a la digital. En realidad Microsoft sigue siendo una empresa analógica y sigue actuando como tal en mercados que, para su desgracia, hace tiempo que ya se han digitalizado.
Algunos incidentes recientes que pesarán en su futuro próximo:
Finalmente, parece que XP será historia, dejando su lugar a un continuador muy controvertido.
OOXML sigue generando consecuencias desagradables, con final incierto (1,2,3, entre muchos otros).
La Comisión Europea, y otros organismos regionales, continúan cuestionando su carácter de proveedor.

domingo, junio 15, 2008

Programadores en España

Juan Palacio apunta una reflexión sobre los programadores en la empresa española, que creo que es particularmente asociable a nuestros entornos (Iberoamérica), en general bastante lejanos del concepto de Toyota del "Respeto por la gente". Una vez más, algunos de los comentarios abren una línea de discusión que amplía la nota original.

sábado, junio 14, 2008

Una pequeña demo de un desarrollo basado en MDA

Los colegas de I2E (Ingeniería Informática Empresarial) participaron en un curso de la Universidad de Alicante con una breve demostración de un caso de desarrollo con MDA, usando AndroMda. Para quienes les interese aplicar el concepto, la presentación es muy útil.

jueves, junio 12, 2008

Ahora si, la nota sobre Plex en Madrid

Luego de la falsa alarma (ver 1 y 2), hoy me remiten la publicación de la nota sobre la reunión de Plex en Madrid. Como se ha dicho, CA (Bill Hunt) y ADC Austin (John Rhodes y Juan González) presentan las novedades sobre Plex, particularmente el generador Web desarrollado por ADC, y el migrador de 2E a Plex. De la nota de Dominion:

Seguidamente el protagonismo lo tuvo nuestro nuevo partner ADC Austin. ADC Austin es el partner tecnológico principal de CA en EE.UU y recientemente ha liberado dos soluciones, que “viendo las reacciones de los asistentes” prometen causar un gran impacto entre la comunidad de usuarios de las herramientas: la solución mediante el servicio 2E Modernization que permite migrar los modelos CA 2E a CA Plex (datos y funciones) y el Web Client for Plex, que genera código ligero web “haciendo uso de tecnologías html, JavaScript, Ajax” a partir de diseños nuevos o existentes en CA Plex. Una combinación de estas dos soluciones permite a un usuario de CA 2E migrar su aplicación a un entorno web con tecnología RIA (Rich Internet Application).

Primero Juan González de ADC Austin, Director de Operaciones y Ventas para España e Iberoamérica, introdujo a su empresa al mercado español y nos ofreció una panorámica de las soluciones de ADC Austin. Posteriormente John Rhodes, Arquitecto Principal y Socio Cofundador de ADC Austin describió las mismas más en detalle, realizando también demostraciones con un alto contenido técnico que lograron impactar en la audiencia. No en vano, las importantes novedades presentadas por ADC Austin estaban perfectamente en sintonía con las demandas solicitadas por los usuarios en los últimos años. Adicionalmente, John Rhodes introdujo una nueva herramienta Matchpoint para el control de cambios en CA Plex.

miércoles, junio 11, 2008

Leyendo a Matsumoto

Un aspecto relevante de la conferencia sobre Software Product Lines de 2007 fue el aporte de Yoshihiro Matsumoto. Decía la nota introductoria de SPLC 2007:
Yoshihiro Matsumoto is Adviser of ASTEM Research Institute of Kyoto. He started his career in Toshiba Corporation in 1954, where he took initiative in the applications of software to real time control systems and in building Toshiba Software Factory for those domains. After he spent 35 years in Toshiba, he switched to academic field and served a professor at Kyoto University, Osaka Institute of Technology, and Musashi Institute of Technology. He received Dr. Eng. degree from the University of Tokyo, and Fellow in 1982/Life Fellow in 2004 both from the IEEE.
Es notable el desconocimiento común sobre la actividad y logros de investigadores y profesionales japoneses en software, si nos atenemos a los medios usuales de difusión de noticias tecnológicas, aunque esto vale también en menor medida para la actividad de investigadores europeos. Lo más usual en las publicaciones de noticias tecnológicas es la atención hacia papeles de trabajo con orientación comercial, donde suele haber mucha hojarasca...Más profundamente, es probable que este desconocimiento provenga del distinto modelo de actividad en Estados Unidos y Europa, frente al japonés. En el caso de éstos últimos, el patrón de desarrollo es el de grandes empresas con investigadores empleados o academicos e institutos asociados. En el caso de Occidente, es mucho mayor el número de emprendimientos individuales o de pequeñas empresas, aunque también pese la acción de grandes conglomerados empresarios y estatales.
Como una confirmación de esta situación, Matsumoto ha logrado mención en el último tiempo gracias a su colaboración con Microsoft en la aplicación de ideas de Greenfield en Microsoft Japón (1 y 2). Pero su trabajo de investigación y de implementación sobre Factorías de Software y el sustrato que implica, tiene más de treinta años (cerca de cuarenta en realidad), siempre en Toshiba , y luego en la Universidad de Kyoto. En estos días, sigo su keynote en SPLC 2007, y su presentación sobre la Factoría de Software de Thosiba. Matsumoto trabajaba por una, y la denominaba como tal, tan temprano como 1977; y si me atengo a sus afirmaciones de 2007, basados en preparativos iniciados a finales de los sesenta. Volveremos sobre ésto.

miércoles, junio 04, 2008

Vinton Cerf en España

Publicado por ADN, el 2 de junio. Vinton Cerf visita España, para ser investido Doctor Honoris Causa por la Universidad de Zaragoza. ADN dedica dos breves informes (1 y 2) sobre sus opiniones acerca de problemas en el desarrollo de Internet, donde resalta uno que comparto: la fragilidad y fugacidad de la información conservada en la red. Dice Pedro de Álzaga, resumiéndolo:

Más de dos décadas después de que la red saliera de los cuarteles y las universidades para hacerse universal, Cerf está preocupado por un problema que denomina "la podredumbre del bit", o degradación de la información producida por programas informáticos que quedan obsoletos y cuya vida se interrumpe.
"Imagine que toda la información de la NASA no pudiera leerse porque los programas que la crearon no estuvieran disponibles ya", explica, preocupado de que imágenes y otros archivos de datos puedan perderse irremisiblemente. "Y no lo digo sólo por los historiadores, sino por la utilidad misma de esa información en el tiempo", se lamenta.
En este sentido, el ingeniero aboga por la creación de una infraestructura que no dependa del URL, el sistema de identificación de recursos en internet: "Necesitamos instituciones que sean autosuficientes y capaces de preservar la información que necesitamos durante mucho tiempo", y no confiar en un sistema que produce tantas veces el mensaje 404 No encontrado.

El camino que tome esta infraestructura quizá esté próximo a la iniciativa de Internet Archive, aunque más amplia que la conservación de páginas y sitios históricos. Comparto el criterio de que se trata de un problema importante, que hace al patrimonio de conocimiento. Un enorme número de sitios valiosos se conservan basados en el soporte de un individuo o un pequeño grupo. Al dejar de existir este soporte, en pocos meses esta información desaparece. Mucha más vida tiene un libro, repartido en miles de copias.

Otro aspecto que Vinton Cert destaca, es la confiabilidad o veracidad de la información disponible, y del espíritu crítico que es requerido observar frente a sus contenidos:

A sus 65 años, Cerf, sobre los cuestionamientos que se hacen a Internet, emplazó a "utilizar nuestra habilidad para analizar lo que estamos leyendo" e hizo un llamamiento a los profesores que se quejan de que sus alumnos tienen aparatos y se conectan a Internet, para que les inviten a comprobar si la información a la que acceden es buena o no.
De esta manera, en su opinión, los estudiantes se verán obligados a consultar otras páginas web y "puede que tengan que ir a la biblioteca real, para comprobar y analizar la información y, posiblemente, darse cuenta de que hay que corroborarla fuera de Internet".
Vinton Cerf, premio Príncipe de Asturias de Investigación Científica y Técnica, sentenció que el camino para enfrentar la mala información en Internet "no es la censura" sino buscar más información, reiteró.
(...) Cerf, quien protagonizó una clase magistral con profesores y alumnos del Centro Politécnico Superior de la Universidad de Zaragoza, comparó Internet con un "trozo de papel" en el que cualquiera puede escribir, pero incapaz de distinguir si lo que se escribe en cierto.
En declaraciones a un grupo de periodistas, el gurú del ciberespacio estadounidense señaló que Internet satisface las curiosidades de los ciudadanos, sin embargo, no es la fuente más fiable, por lo que dijo que "el antídoto para la mala información es contrastar y buscar más información".

Vinton, en palabras de Álzaga, destaca otros cuatro puntos: el número teórico de direcciones disponibles, en camino de resolución, la seguridad, la propiedad intelectual, y la protección de los niños:

Hace casi 10 años, Vinton Cerf creía que su hija Internet tenía, fundamentalmente, dos problemas: el número de direcciones IP -las cuatro cifras separadas por puntos que identifican los sitios web; por ejemplo, el de ADN.es es 80.67.66.55- se estaba acabando, y era necesario ampliarlo; y el problema de la falta de seguridad de la red en ciertos aspectos.

El primer problema ha sido resuelto con la versión IPv6, que amplía a seis números las direcciones IP; pero no el segundo."El principal problema reside en los navegadores, que son un poco naïf y descargan cualquier programa que se encuentra en una página web", señala.
"Cientos de millones de máquinas se encuentran infectadas por programas -advierte Cerf-. Estos ordenadores pueden ser controlados remotamente para enviar publicidad basura, lanzar ataques de forma conjunta contra otro sitios web o simplemente propagarse a otros ordenadores". Y lo peor es que las personas que controlan estas redes, denominados generales de botnet, las alquilan a terceros.
"Si pudiera empezar a diseñar la red otra vez, buscaría prevenir este tipo de abusos" -dice el ingeniero- "No lo hicimos al principio porque no esperábamos que la red acabara en manos del público general".
En lo que respecta a las nuevas generaciones de internautas, Cerf sostiene que los maestros deberían educar a sus pupilos en la búsqueda de información dentro y fuera de internet y hacerlos capaces de contrastar los datos que encuentran en la red. "Sólo para que se den cuenta de que hay información de valor también fuera", dice.
Asimismo, advierte de que existe una gran preocupación por la pederastia y el abuso que los adultos puedan hacer de los niños en Internet. "Pero nadie se preocupa por el daño que puedan hacerse entre ellos", explica, refiriéndose a los casos de acoso escolar a través de la red informática.
Por último, habla de otro de los caballos de batalla en la red: "La propiedad intelectual debe repensarse -dice el ingeniero-. Copiar un archivo digital es tan sencillo que hay que buscar nuevos modelos de negocio que tengan esto en cuenta pero sigan retribuyendo a los creadores".

Dice Wikipedia sobre Cerf:
Vinton Gray "Vint" Cerf (IPA: ; born June 23, 1943) is an American computer scientist who is the "person most often called 'the father of the Internet'." His contributions have been recognized repeatedly, with honorary degrees and awards that include the National Medal of Technology, the Turing Award, and the Presidential Medal of Freedom.
Cerf has worked for Google as its Vice President and Chief Internet Evangelist since September 2005.
Fotografía tomada de Wikipedia

Reunión en Madrid, parte 2

Me extrañaba que se anunciara en la nota de Dominion a Colaço Días,y no a Bill Hunt, cuando en el programa previo aparecía el segundo y no el primero...Lo consulté con mi colega aquí, que sí fue, y confirmé lo que ya habíamos conversado antes: estuvo Hunt, no Colaço. Y la nota dice esto porque está bien: se refiere a la visita anterior. La nueva todavía no está presentada. Así, las referencias a Plex 6.0 deben corresponder a 6.1, quien lo comentó fue Bill Hunt, y Mikkel no estuvo. La nota habrá que esperarla todavía. El producto sí fue presentado.

martes, junio 03, 2008

Presentación del generador Web para Plex

Tenía casi todo listo para ir, pero no fue posible. ADC Austin y Websydian presentaron en la sede Madrid de Dominion el desarrollo conjunto del generador Web para Plex. Estuvieron Paulo Colaço Dias, product manager de Plex, John Rhodes por ADC Austin, y Mikkel Schnack por Websydian. Es particularmente interesante que este generador fue desarrollado fuera del equipo de construcción de Plex, utilizando los elementos expuestos del producto (API y patrones). Una muestra de las posibilidades de extensión abierta sobre la robusta base de Plex.
Lamentablemente, lo leo en las noticias...

viernes, mayo 30, 2008

La Politécnica de Valencia y la innovación

En estos últimos días, a propósito de la Conferencia Internacional "Innovación Abierta y Universidad: Competitividad y Desarrollo", tanto la Universidad Politécnica como los medios le han dedicado atención a su actividad de investigación. No estaría de mas el conocer qué hace, si quisiéramos buscar en algún lado una forma más activa de conducir una Universidad. Lo que sigue es un extracto de dos notas sobre la UPV, de la Gaceta, y del propio rectorado.
Una presentación de la Universidad:
De un Instituto Politécnico a una Universidad Politécnica. De 2.000 a 35.000 matriculados. Permanece la esencia del 68: “Formar profesionales” y empujar la cultura emprendedora. Varían los métodos: en los de entonces, se obligaba a repetir todas las asignaturas del curso con un solo suspenso y si no se lograba aprobar a la cuarta, irremediablemente había que abandonar el centro. De aquella disciplina cuartelaria a las 40 escuelas actuales, que vivieron su revolución particular en la década de los 90. De los 19.971 inscritos a los 37.130 del último curso. Los hombres continúan siendo líderes indiscutibles, pero ellas recortan distancias: representaban un 25% en el 90 y ahora prácticamente suman el 40%. La diferencia de los pupitres es igual de abultada en las tarimas, aunque con avances paulatinos. El personal docente de la UPV lo componen 2.772 personas, de las que el 27% son mujeres. En los puestos administrativos sí hay igualdad.
Lo que más se ha mencionado esta semana es su registro de patentes sobre investigaciones de la propia Universidad:
Es líder nacional en número de patentes registradas y la única politécnica española que se cuela en el ránking de Shanghai, que recoge las 500 mejores universidades del planeta. La media de la UPV quita el hipo y sonroja al resto: 21 inventos aplicables anuales frente a los 6,6 de la media española. Sus trabajadores son ases en Tecnología Química e Ingeniería de Alimentos para el Desarrollo.
(...) ¿Ha echado alguna vez a su carrito de la compra un paquete de bacalao “refrigerado, desalado y listo para cocinar” de Hacendado sin darle más importancia? Es una de las 226 patentes cocinadas en la UPV. La inmersión en la industria del bacalao se realizó en 1999, con un proyecto en el que colaboraron centros de investigación de Noruega y Portugal. En 2006, Ubago compró la idea y su aplicación.
La empresa explota la licencia universitaria, algo así como el alquiler de un piso. “Se le exige inventiva, es decir, no ser obvio; ser nuevo y rentable”. Con los tres requisitos que da Fernando Conesa, director del Centro de Apoyo a la Innovación, la Investigación y la Transferencia de Tecnología, se echa a andar. Le sigue una solicitud a la oficina de patentes españolas, para proteger la exclusividad en el país. A cambio, se obtiene una propiedad durante 20 años y se cede la publicidad del hallazgo. El trámite precisa, como mínimo, de dos años. Si se quiere traspasar las fronteras, es necesario pedir una autorización país a país, aunque el paso inicial es común (comprobar si estamos hablando de una invención o no).

Gastrovac es otro hito, sin el que los platos de Ferran Adrià no serían los mismos. Se trata de un equipo de cocción al vacío, que crea una atmósfera para cocer a baja presión y sin oxígeno los alimentos. ¿Resultado? Mantenimiento de la textura, el color y los nutrientes originales.

(...) Pero es en Química donde la Politécnica de la capital del Turia se ha metido en el bolsillo a las multinacionales. Repsol, Texaco, Shell, British Petrolium o Cepsa han pasado por su instituto mixto, creado en el 90 con el Centro de Investigaciones Científicas (CSIC).

Seguramente el propileno le suene a chino pero es tan polivalente para la industria química como el ladrillo para la construcción. Un nuevo catalizador patentado “rentabiliza la producción del óxido de propileno”, explica Conesa. Es la base de los poliuretanos, sin los que ni la automoción, ni los muebles, ni los esmaltes, pinturas o barnices serían iguales.

Recogedores de excrementos de perros, fabricación del turrón de Xixona (Alicante), descongelación y salado simultáneo de carne y pescado, recogida de moluscos, simuladores automovilísticos para discapacitados, clasificación de quesos mediante ultrasonidos... La Politécnica no engrosa la lista de suspensos universitarios. Para el 51% de los españoles, las aulas no se adecuan a las necesidades sociales y únicamente el 20% está satisfecho con las aplicaciones prácticas.

“Debe coexistir con la teoría, porque es ésta la que te permite generar conocimiento útil para dentro de diez años. Si te centras en generar utilidad, responderás a la demanda actual pero no estarás preparado para el futuro”, sostiene Fernando Conesa. Juan Velarde se centra en el hoy por hoy: “España es un deudor internacional en patentes, tan débil que se equipara a países como Polonia y República Checa. Al no tener universidades competitivas, carece de una economía competitiva”.

El economista anima a que las universidades politécnicas españolas sigan el ejemplo de la dirigida por Juan Juliá [Rector de la UPV] para vender ideas y ayudar, de paso, a “rebajar el altísimo déficit, que alcanza el 10% del Producto Interior Bruto”.

(...) La UPV revolucionó los catalizadores en 1992. La japonesa Sumitomo incorporó el descubrimiento a sus plantas. El hallazgo ha reportado 700.000 euros por licencias y 600.000 por investigaciones asociadas.
Sobre patentes y vinculación con la actividad económica, resume el Rectorado:
La UPV es un claro ejemplo de universidad vinculada a la economía del conocimiento. Es la segunda universidad española en volumen de I+D+i contratada, generando en 2007 más de 100mll de Euros en transferencia tecnológica, lo que supone un incremento de un 23,6% respecto a 2006. Es además la primera universidad de España en ingresos por licencia, sumando un total de 72 licencias. (Según datos del último informe elaborado por la RedOTRI de Universidades, la media española es de 3,6.) Por volumen de patentes registradas, 226, se sitúa en el primer puesto del ranking español, siendo la media de las universidades españolas de 6,6 patentes solicitadas al año, mientras que sólo en 2007 la UPV solicitó un total de 21. Finalmente el presupuesto de la UPV para el año 2007 fue de 354,4 millones de euros, computando más del 40% de sus ingresos gracias a recursos propios.
Sobre innovación e investigación, en la nota de la propia Universidad:
Para Francisco Mora, Vicerrector de Coordinación y Planificación Económica de la UPV y Director de la Ciudad Politécnica de la Innovación, "las universidades deben involucrarse cada vez más en la creación de empresas propias de base tecnológica para dotarse de recursos propios y entablar una relación de tú a tú con el entorno empresarial y económico
(...) "La innovación abierta busca instaurar nuevas dinámicas que capitalicen el conocimiento que genera una universidad o una empresa, aprovecharlo y ponerlo en el mercado a través de patentes, licencias, la creación de empresas y colaboración tecnológica con el sector empresarial", ha señalado el vicerrector Fco. Mora, "todo ello sin perder nunca las señas de identidad de la universidad ni dejar de estar a la vanguardia en la investigación y el conocimiento".
Por su parte, Rafael Aznar, vicepresidente del Consejo Social, ha señalado que somos conscientes de que la UPV, con la creación de la Ciudad Politécnica de la Innovación, y la organización de foros como el que hoy estamos presentando está dando un paso muy importante, sentado las bases para garantizar la reciprocidad entre la universidad y la sociedad valenciana.
Sobre el apoyo a emprendedores a partir de la Universidad:
La UPV (...) es líder en la creación de Empresas de Base Tecnológica de origen universitario (Spin-off,s y Start-up,s), así como en el fomento de la cultura emprendedora. Desde 1992, cuenta con el Instituto IDEAS para la creación y desarrollo de empresas, decano en la universidad española, cuya misión es fomentar y desarrollar la cultura emprendedora en la UPV, así como sensibilizar y dinamizar a la comunidad universitaria en la creación y soporte de nuevas empresas y apoyar la creación y desarrollo de empresas innovadoras y de base tecnológica. La labor desarrollada hasta la fecha por el instituto IDEAS ha contribuido a situar a la UPV como la universidad española con mejores resultados en creación de empresas en el ámbito universitario.
Otra nota fue publicada también por el diario Metro, y recogida por la UPV.
En el área específica de la Informática, quisiera recordar otra vez la alta participación de miembros de su cuerpo docente en investigación, particularmente en modelado y desarrollo basado en modelos. Suelo encontrar a muchos de sus profesores y alumnos en los desarrollos más innovadores de España y Europa.

Quiero destacar este punto de vista, mientras vuelvo a encontrar en las noticias, la enésima toma del rectorado de la Universidad de Buenos Aires, donde se sigue pensando otra cosa de qué debe ser una Universidad...

martes, mayo 27, 2008

Software Factory en Wikipedia

Hoy, por primera vez, encuentro una variación notable en el contenido del concepto Sofware Factory en Wikipedia. Luego de un prolongado proceso de cuestionamiento, parece haber tomado el rumbo correcto. Finalmente, las observaciones críticas de múltiples colaboradores concluyeron en acción, en el modo en que era de esperar: se eliminó la ambiguedad del concepto, se asignó el contenido anterior a una segunda acepción en el marco de Microsoft .NET, y se comenzó a redactar un verdadero artículo sobre el tema, dejando la versión .NET en lugar aparte, donde sus adeptos podrán seguir elaborando sus ideas, o incluso eliminarlas, como ya ha pasado con algunas de sus afirmaciones iniciales sobre Software Factory y sus relaciones con el diseño basado en modelos.
Es especialmente alentador observar que el trabajo colaborativo en Wikipedia tiende a resultados correctos en su evolución histórica. Durante meses, existieron advertencias de Wikipedia sobre el carácter tendencioso de la primera definición, acompañadas de observaciones específicas en los comentarios. Todavía hoy el artículo se inicia con una advertencia sana: This article or section is in the middle of an expansion or major revamping. You are welcome to assist in its construction by editing it as well.

En fin, ahora hay que ocuparse del verdadero tema, que por cierto es más que importante, más que lo que en este momento determina su definición redefinida.

Sin embargo, no me coinciden las fechas de actualización: la última versión que recuerdo es la que se puede ver en The Internet Archive con fecha 30 de marzo de 2007. La historia de revisiones comienza a establecer cambios mayores en febrero, aunque mi impresión es que estos cambios han aparecido mucho más cercanamente, durante mayo. ¿Será que mi caché me jugó una mala pasada? (¿O quizá no entienda correctamente cómo se procesa el mecanismo de manejo de revisiones de Wikipedia?). El caso es que el artículo, que a mi entender hasta hace no mucho más que tres o cuatro días era el núcleo de la definición de Software Factory, es ahora la nueva versión .NET, con fecha de inicio en 25 de mayo.

domingo, mayo 25, 2008

La defensa de los estándares abiertos

Acabo de leer la nota de Alejandro Pisanty mencionando la creación del grupo Digistan, dedicado a la defensa de estándares abiertos en el ámbito de Internet, como secuela de la ajetreada discusión del estándar OOXML. La carta abierta de sus fundadores debiera motivar su respaldo:

Industry has always depended on standards and traditional industries have built their standards as part of a slow, controlled, top-down approach to innovation. Industrial-age standards are often heavily patented, complex, and large. They can be expensive to implement and therefore are implementable only for large established firms.
But almost forty years ago, Steve Crocker and his team wrote RFC001 and launched the networks that built the Internet using a different model based on older human values of sharing and cooperation. His vision, and that of other Internet pioneers, was of a digital world built on simple, interoperable standards, accessible at zero cost to even the smallest teams. Largely, their dream is coming true. Today we're used to an Internet of open software, open content, and open development.
While most agree, not everyone likes it. In the telecoms, entertainment, and software industries we see the destruction of legacy vendors and their replacement by new Internet communities. And many of the old industrial businesses, instead of adapting, are fighting back. The fight is intensifying because the stakes are growing. Free and open source software, open content, and open communities are together worth trillions of dollars. The key to controlling these rich ecosystems is to control the digital standards they depend on.
The outcome of this conflict will define our digital future. At one extreme, Steve Crocker's vision comes true, and the future is built on free and open digital standards. And at the other extreme, the legacy telecoms, entertainment and software vendors capture the world's digital standards by controlling the standardization processes and by using software patents.
Imagine the world if RFC001 was owned by a consortium of telecoms firms. Imagine if only those firms, and their approved partners, could develop Internet technologies. Imagine if every RFC was protected by dozens of patents, so that sending a single email or downloading a web page meant paying license fees. Imagine paying for each click. Look at your mobile phone bill and you see how close this reality is. [sigue...]

OOXML en Wikipedia.
La controversia sobre este proceso en inglés, y en castellano.
Sobre este proceso, claro ejemplo y motivo de lo que se defiende en la carta, hay mucho material disponible, tanto que no vale la pena entrar más en detalles.
Sobre Digistan, la iniciativa no se limita a un observatorio ético, sino que trabaja en la elaboración de instrumentos.

domingo, mayo 11, 2008

Bye, Bye COM: Estándares y Empresa

...otro Requiem, por COM (escrito por Ángel López). Un buen resúmen de la transición de COM a .NET, que da una idea de cómo mapear las relaciones entre las dos tecnologías. Sin embargo, quisiera agregar dos palabras al tema, que hacen a un asunto más general: el soporte de las tecnologías que son reemplazadas por nuevas versiones.
En distintas ocasiones, muchas más de las que se pudiera suponer, me he visto obligado a mantener código o arquitecturas que fueron quedando si no obsoletas, al menos demoradas; es decir, desarrollos con los que su propietario se siente conforme y no ve la necesidad de evolucionarlo radicalmente, adoptando un nuevo paradigma que le obligue a reescribir o reestructurar código por la simple razón de que la "nueva novedad" lo representa de otra manera. Éste es un fenómeno que en algunas plataformas puede degenerar en real atraso (1), pero que es absolutamente legítimo: una inversión satisfactoria no debería quedar descartada simplemente porque no encaja ya con la evolución de su propia plataforma nativa.
En el caso de la evolución de COM a .NET, así como en el paso de Visual Studio 6.0 a 2005 0 2008, el problema se plantea en el campo del soporte de documentación; quizá en cuanto a compatibilidad del código el problema no sea muy grande, pero es complicado si se requiere mantener una aplicación de VS 6 consultando MSDN; lo más que frecuente es que se hayan perdido las referencias de detalle, y que no se encuentren sino con grandes dificultades las descripciones de las versiones "antiguas" que se desea mantener. La única garantía es conservar bajo llave una copia de la documentación original, mas la historia de modificaciones, porque obtenerlo en la guía en línea puede ser casi imposible.
Este patrón se extiende al seguimiento de problemas, que una y otra vez conduce a callejones sin salida: páginas que ya no existen, aún para temas que debieran estar cercanos, pero que quizá hayan sido enviados a vía muerta en el curso del desarrollo del nuevo producto.
En más de una ocasión algún colega me explicó esto como una política disuasiva de Microsoft, para inducir a la masa de desarrolladores a adoptar las nuevas versiones de sus productos. Sin embargo, tengo la impresión de que, a nivel decisorio, esto produce otro efecto: la observación de una política de soporte del usuario descuidada y tiránica. Bastante alejada de la que he observado por muchos años sobre el AS400 y otros ambientes de IBM, y también, aunque no lo he requerido probar muy a fondo, con el caso del soporte de Sun sobre la plataforma Java.

Justamente, la conveniencia de no estar sujeto a las políticas de un proveedor, es lo que da al diseño guiado por modelos (MDA/MDD) un atractivo especial: la posibilidad de mantener el patrimonio de diseño a un mayor nivel de abstracción, nos otorga libertad de movimientos frente a proveedores y plataformas.

(1) Las facilidades de mantenimiento de código obsoleto -legacy- sobre el AS400 ;-) han llevado a muchas empresas a no innovar por años, dado que el código de su plataforma antigua sigue ejecutando sobre las nuevas versiones). Recuerdo algún caso de una distancia entre código ejecutado y sistema operativo de más de diez años.

Réquiem por BEA

Stefan Tilkov, inventor anticipado de las entradas de blog mínimas, suele exponer material más que interesante, particularmente en temas de arquitecturas orientadas a servicios, especialmente, sobre REST. Ayer publicó una con un nombre apocalíptico (The Day that Middleware Died), que remite a la reflexión de Stuart Charlton sobre la absorción de BEA por Oracle. Dos tipos de observaciones son de interés en su Oda a BEA: su análisis sobre las causas de la caída de BEA, y sus observaciones sobre arquitectura.
Sobre BEA:

(...) by late-2006 I felt BEA was losing its way. The initial AquaLogic push was good, but it spread our engineering resources thin. BEA's SOA vision, which started well, became something of an empty marketing slogan, like how '.NET' was destroyed within Microsoft.
(...) One could see Oracle's acquisition as the culmination of BEA's failure to emerge from the dot-com bubble burst. I don't entirely buy it -- Alfred managed to grow the company to $1.5b from $950m in 2001 when Coleman, then CEO, left. That's quite an accomplishment, if short of expectations. BEA was still performing, people were still buying its products, and a lot of the b.s. about JBoss or other competitors eating its lunch are rather exaggerated, in my opinion. I claim no real insider information, and am speaking for myself when I say, there is one primary, clear, reason for BEA's failure, in my opinion, and anyone "on the ground" in the company would likely agree with it: after the early-2000's recession, finance & legal -- the bean counters -- became the kings of the company. In other words, I believe BEA's wounds were self-inflicted.
Once the goal ceased being innovation & great software, it was about a pristine balance sheet, milking the support organization, and onerous following of extremely conservative accounting guidelines. There were still leaders -- Alfred Chuang still had fire in him, some product executives like Guy Churchward were bright spots, Paul Patrick in the architecture organization was also a great source of ideas (but given power far too late). Many in the sales organization knew how to make customers feel valued, and were rewarded righly. But all of them were beholden to the bean counters. Oh yeah, and there was an options scandal that one hoped would shake the power of the finance department. (It didn't.)
(...) WebLogic Server continues to be, in my opinion, the gold standard of J2EE application servers (and I've used most of them). Yet it's maddening that something as important as their management console -- arguably the defining feature of the product vs. open source alternatives! -- became dog slow. WebLogic Workshop was productive for specific products but made the transition to Eclipse years later than it should have. AquaLogic Service Bus was a visionary product, and has some great understated features for validating the dependencies amount service artifacts. But it's lack of support for RESTful services is also maddening, considering how little work would need to be done (for starters, just enable PUT and DELETE, folks!). AquaLogic DSP was another visionary product, but way too programmer-centric in a world where programmers don't give a crap about data. They needed to target the DBA or the RESTful crowd, but the small & dedicated team was too busy trying to improve the core engine with the resources they had. BEA WebLogic Integration v8.1 SP2+ was the swiss army knife of integration tools, and probably the best game in town circa 2003-2006. WLI could smoke Oracle BPEL on performance, usability, and complex transformations. But v9 was disastrous. WebLogic Portal had one of the most ambitious set of goals, and an extraordinarily bright team. But they too were plagued with quality issues, arguably due to a lack of bandwidth, and a need to compete with Plumtree internally. The Plumtree team got off to a great start with the PEP products, but I doubt if we'll ever see the fruition of that idea.

Sobre arquitecturas:
One could say that it's "the day that middleware died". Perhaps that's a good thing, in the long run. In many respects, we have a new approach to middleware that surrounds us, if only we'd take advantage of it.
(...) It also didn't help that I had stopped believing that SOA would make anyone's life any easier, and reading some of the ITIL v2 material that was guiding our efforts also really just seemed to reinforce that we were following in the grand tradition of "smart people building skyscrapers to nowhere"
En cuanto a Stuart Charlton, agregado al Reader.

martes, mayo 06, 2008

Amy Wohl: La PC ya no es el centro del universo

Apuntado por Pablo Pizarro (gracias a Google Reader), las breves palabras de Amy Wohl, resumiendo las opiniones de Sam Palmisano y Eric Schmidt, que marcan la tendencia que hoy podemos ver con bastante claridad:

At IBM's Business Partner Leadership Conference, held this week in Los Angeles, IBM CEO Sam Palmisano and Google CEO Eric Schmidt spoke on the state of computing and their vision for its future, both separately and togehter. The big news is that they agree:

  • We are moving from a PC-Centric world to a Network-Centric world filled with millions of devices of every shape and description.
  • In this Network Centric world, the PC is just another device, of decreasing importance as the emerging economies come online with their preference for mobile platforms which more closely ressemble smart phones.
  • In the Network Centric World, Open Standards and published APIs are very imortant so that new innovations can easily be attached to the network and become new platforms for deelopment.
  • The cloud (very large scale shared computing, available for hire) will become uibiquitious, probably sold by platform providers who will recruit ecoosystems of ISVs and provide a well-managed, secure platform, freeing both customers and ISVs from the need to implement hardware where they lack the skills or capital.
  • This networkcentric Computing model will require tons of storage and new interaces and methods to discover the information and manage it.
  • This enables everyone to have more access to information. Some of it will be stored in the cloud, but some of it will continue to be stored on site. It's a hybrid world.

Large traditional vendors like Microsoft will have to choose between adopting the open standards, network centric, cloud approach, finding a new market niche, and slowly becoming less relevant. That's why Microsoft's chsing so hard after the consumer market with the Yahoo.

domingo, mayo 04, 2008

Microsoft/Yahoo: final abierto

Desde ayer sábado, las noticias informan que públicamente Microsoft renuncia a la compra/absorción de Yahoo, o, al menos, da por terminadas las negociaciones formales y abiertas con la dirección de la empresa. Probablemente ahora continúen otro tipo de maniobras, destinadas a obtenerla acudiendo a los accionistas. Pero la dirección de Yahoo ha demostrado que le interesa su negocio, y que hará lo posible por defender su sitio. El final está abierto por muchas razones: varias alternativas negociadas podrían resultar en la apertura de buenos negocios para Yahoo, pero también la tensión y asedio podrían deteriorar su posición; como algunos análisis propusieran, el cambio drástico de las condiciones económicas norteamericanas podrían terminar con las negociaciones, y deteriorar ambas empresas, por el propio peso de la crisis; o podría resultar cayendo pese a todo, luego de un cerco hostil.
Siguen algunos análisis abriendo posibilidades, en cualquiera de estos sentidos:
De Scott Rosenberg, mencionado en el título de esta nota; de Miguel Helft y Andrew Ross Sorkin, en New York Times; y el detallado análisis de Marc Andreessen, en parte 1 y 2.

domingo, abril 27, 2008

Code Generation 2008, faltando dos meses

Probablemente la proxima mención sea para publicar lo que esté disponible de la conferencia. Pero, estando ya consolidado el programa de actividades, y habiendo avanzado en el número de auspiciantes, vale la pena volver a recomendar su seguimiento; y para quien pueda, la participación.
Entre los temas propuestos, un buen número de trabajos sobre DSL (Domain Specific Languages) y DSM (Domain Specific Modeling), con participaciçon especial de miembros de Microsoft (Steve Cook). En general, de los trabajos , me parecen importantes estos:
Mark Dalgarno, MDSD and Software Product Lines - a marriage made in heaven? , porque encara las correlaciones entre diseño por modelo y SPL; Brooke Hamilton, Evangelizing Code Generation: A Case Study of Incremental Adoption , porque trata un caso donde la generaciçon de cçodigo se adopta progresivamente en una empresa; Bernhard Merkle, Modelling Standards: what exists, what's missing and what failed?, porque se enfoca en los problemas; y Chul Hwee Kim, Managing Complexity with Domain Specific Visual Languages, porque aplica DSL a problemas complejos.
Entre los participantes y expositores, Anneke Kleppe, Mark Dalgarno, Steven Kelly, Pedro Molina, Juha-Pekka Tolvanen, y Steve Cook.

sábado, abril 26, 2008

Las redes sociales como negocio

Therese Poletti, en Market Watch, se pregunta si la compra de la red Bebo por AOL no revela un alcance más realista de este negocio, contrastándolo con la valuación teórica de Facebook (The $850 million all-cash deal was a huge payday for Bebo and its founders, but at the same time, the deal may have placed a lower valuation of Facebook, the darling of social networks, which got its hefty valuation when Microsoft made its investment of $240 million in the Palo Alto, Calif.-based company, for a 1.6% stake).
Poletti se pregunta si el crecimiento de las redes sociales no es parte de otra burbuja, con empresas sobrevaluadas. Comparando Bebo y Facebook, las distancias en utilización no reflejan sus valuaciones:
That notion of a lower valuation, said Ray Valdes, an analyst with Gartner, is based on imperfect data and a range of estimates that Facebook is anywhere from 2.5 to 7 times the size of Bebo. That data varies from monthly visitors to active users to registered users.
For example, Compete.com said Bebo had four million monthly visitors in February, versus 28 million at Facebook, a ratio of one to seven. But active users, as reported by Bebo, are 22 million and 66 million by Facebook, giving Facebook three times the number of users.
"If all things are proportional, it makes Facebook valued at $2 billion to about $6 billion, depending on what you use as a metric," Valdes said. "You could say that Bebo was undervalued or Facebook was overvalued when it was valued at $15 billion. In any case, there is a valuation gap."
Poletti destaca que parece advertirse, en el caso de Facebook, cierto estancamiento en su utilización; implicando en general un pago excesivo por parte de Microsoft por su pequeña participación en la sociedad:
At the same time, there is also a sense that Microsoft's investment in Facebook was at about the time of a peak of what some are calling a Web 2.0 bubble. With the markets now in turmoil and the economy in a decline, investment in startup companies may start to fall off.
Y, finalmente, se pregunta cuánto puede afectar el trato por Bebo-AOL, a otras redes, dedicadas a ámbitos específicos, en general profesionales, como LinkedIn:
It will be interesting to see how the AOL deal affects the value of other social networking companies, especially privately held LinkedIn, which targets business professionals, and niche players, such as ClubMom
Quizá una burbuja pudiera afectar en primer lugar a las redes sociales, y probablemente no tanto a otras dedicadas a actividades profesionales, académicas o de negocios, donde las ventajas de sus servicios son tangibles.