viernes, mayo 30, 2008

La Politécnica de Valencia y la innovación

En estos últimos días, a propósito de la Conferencia Internacional "Innovación Abierta y Universidad: Competitividad y Desarrollo", tanto la Universidad Politécnica como los medios le han dedicado atención a su actividad de investigación. No estaría de mas el conocer qué hace, si quisiéramos buscar en algún lado una forma más activa de conducir una Universidad. Lo que sigue es un extracto de dos notas sobre la UPV, de la Gaceta, y del propio rectorado.
Una presentación de la Universidad:
De un Instituto Politécnico a una Universidad Politécnica. De 2.000 a 35.000 matriculados. Permanece la esencia del 68: “Formar profesionales” y empujar la cultura emprendedora. Varían los métodos: en los de entonces, se obligaba a repetir todas las asignaturas del curso con un solo suspenso y si no se lograba aprobar a la cuarta, irremediablemente había que abandonar el centro. De aquella disciplina cuartelaria a las 40 escuelas actuales, que vivieron su revolución particular en la década de los 90. De los 19.971 inscritos a los 37.130 del último curso. Los hombres continúan siendo líderes indiscutibles, pero ellas recortan distancias: representaban un 25% en el 90 y ahora prácticamente suman el 40%. La diferencia de los pupitres es igual de abultada en las tarimas, aunque con avances paulatinos. El personal docente de la UPV lo componen 2.772 personas, de las que el 27% son mujeres. En los puestos administrativos sí hay igualdad.
Lo que más se ha mencionado esta semana es su registro de patentes sobre investigaciones de la propia Universidad:
Es líder nacional en número de patentes registradas y la única politécnica española que se cuela en el ránking de Shanghai, que recoge las 500 mejores universidades del planeta. La media de la UPV quita el hipo y sonroja al resto: 21 inventos aplicables anuales frente a los 6,6 de la media española. Sus trabajadores son ases en Tecnología Química e Ingeniería de Alimentos para el Desarrollo.
(...) ¿Ha echado alguna vez a su carrito de la compra un paquete de bacalao “refrigerado, desalado y listo para cocinar” de Hacendado sin darle más importancia? Es una de las 226 patentes cocinadas en la UPV. La inmersión en la industria del bacalao se realizó en 1999, con un proyecto en el que colaboraron centros de investigación de Noruega y Portugal. En 2006, Ubago compró la idea y su aplicación.
La empresa explota la licencia universitaria, algo así como el alquiler de un piso. “Se le exige inventiva, es decir, no ser obvio; ser nuevo y rentable”. Con los tres requisitos que da Fernando Conesa, director del Centro de Apoyo a la Innovación, la Investigación y la Transferencia de Tecnología, se echa a andar. Le sigue una solicitud a la oficina de patentes españolas, para proteger la exclusividad en el país. A cambio, se obtiene una propiedad durante 20 años y se cede la publicidad del hallazgo. El trámite precisa, como mínimo, de dos años. Si se quiere traspasar las fronteras, es necesario pedir una autorización país a país, aunque el paso inicial es común (comprobar si estamos hablando de una invención o no).

Gastrovac es otro hito, sin el que los platos de Ferran Adrià no serían los mismos. Se trata de un equipo de cocción al vacío, que crea una atmósfera para cocer a baja presión y sin oxígeno los alimentos. ¿Resultado? Mantenimiento de la textura, el color y los nutrientes originales.

(...) Pero es en Química donde la Politécnica de la capital del Turia se ha metido en el bolsillo a las multinacionales. Repsol, Texaco, Shell, British Petrolium o Cepsa han pasado por su instituto mixto, creado en el 90 con el Centro de Investigaciones Científicas (CSIC).

Seguramente el propileno le suene a chino pero es tan polivalente para la industria química como el ladrillo para la construcción. Un nuevo catalizador patentado “rentabiliza la producción del óxido de propileno”, explica Conesa. Es la base de los poliuretanos, sin los que ni la automoción, ni los muebles, ni los esmaltes, pinturas o barnices serían iguales.

Recogedores de excrementos de perros, fabricación del turrón de Xixona (Alicante), descongelación y salado simultáneo de carne y pescado, recogida de moluscos, simuladores automovilísticos para discapacitados, clasificación de quesos mediante ultrasonidos... La Politécnica no engrosa la lista de suspensos universitarios. Para el 51% de los españoles, las aulas no se adecuan a las necesidades sociales y únicamente el 20% está satisfecho con las aplicaciones prácticas.

“Debe coexistir con la teoría, porque es ésta la que te permite generar conocimiento útil para dentro de diez años. Si te centras en generar utilidad, responderás a la demanda actual pero no estarás preparado para el futuro”, sostiene Fernando Conesa. Juan Velarde se centra en el hoy por hoy: “España es un deudor internacional en patentes, tan débil que se equipara a países como Polonia y República Checa. Al no tener universidades competitivas, carece de una economía competitiva”.

El economista anima a que las universidades politécnicas españolas sigan el ejemplo de la dirigida por Juan Juliá [Rector de la UPV] para vender ideas y ayudar, de paso, a “rebajar el altísimo déficit, que alcanza el 10% del Producto Interior Bruto”.

(...) La UPV revolucionó los catalizadores en 1992. La japonesa Sumitomo incorporó el descubrimiento a sus plantas. El hallazgo ha reportado 700.000 euros por licencias y 600.000 por investigaciones asociadas.
Sobre patentes y vinculación con la actividad económica, resume el Rectorado:
La UPV es un claro ejemplo de universidad vinculada a la economía del conocimiento. Es la segunda universidad española en volumen de I+D+i contratada, generando en 2007 más de 100mll de Euros en transferencia tecnológica, lo que supone un incremento de un 23,6% respecto a 2006. Es además la primera universidad de España en ingresos por licencia, sumando un total de 72 licencias. (Según datos del último informe elaborado por la RedOTRI de Universidades, la media española es de 3,6.) Por volumen de patentes registradas, 226, se sitúa en el primer puesto del ranking español, siendo la media de las universidades españolas de 6,6 patentes solicitadas al año, mientras que sólo en 2007 la UPV solicitó un total de 21. Finalmente el presupuesto de la UPV para el año 2007 fue de 354,4 millones de euros, computando más del 40% de sus ingresos gracias a recursos propios.
Sobre innovación e investigación, en la nota de la propia Universidad:
Para Francisco Mora, Vicerrector de Coordinación y Planificación Económica de la UPV y Director de la Ciudad Politécnica de la Innovación, "las universidades deben involucrarse cada vez más en la creación de empresas propias de base tecnológica para dotarse de recursos propios y entablar una relación de tú a tú con el entorno empresarial y económico
(...) "La innovación abierta busca instaurar nuevas dinámicas que capitalicen el conocimiento que genera una universidad o una empresa, aprovecharlo y ponerlo en el mercado a través de patentes, licencias, la creación de empresas y colaboración tecnológica con el sector empresarial", ha señalado el vicerrector Fco. Mora, "todo ello sin perder nunca las señas de identidad de la universidad ni dejar de estar a la vanguardia en la investigación y el conocimiento".
Por su parte, Rafael Aznar, vicepresidente del Consejo Social, ha señalado que somos conscientes de que la UPV, con la creación de la Ciudad Politécnica de la Innovación, y la organización de foros como el que hoy estamos presentando está dando un paso muy importante, sentado las bases para garantizar la reciprocidad entre la universidad y la sociedad valenciana.
Sobre el apoyo a emprendedores a partir de la Universidad:
La UPV (...) es líder en la creación de Empresas de Base Tecnológica de origen universitario (Spin-off,s y Start-up,s), así como en el fomento de la cultura emprendedora. Desde 1992, cuenta con el Instituto IDEAS para la creación y desarrollo de empresas, decano en la universidad española, cuya misión es fomentar y desarrollar la cultura emprendedora en la UPV, así como sensibilizar y dinamizar a la comunidad universitaria en la creación y soporte de nuevas empresas y apoyar la creación y desarrollo de empresas innovadoras y de base tecnológica. La labor desarrollada hasta la fecha por el instituto IDEAS ha contribuido a situar a la UPV como la universidad española con mejores resultados en creación de empresas en el ámbito universitario.
Otra nota fue publicada también por el diario Metro, y recogida por la UPV.
En el área específica de la Informática, quisiera recordar otra vez la alta participación de miembros de su cuerpo docente en investigación, particularmente en modelado y desarrollo basado en modelos. Suelo encontrar a muchos de sus profesores y alumnos en los desarrollos más innovadores de España y Europa.

Quiero destacar este punto de vista, mientras vuelvo a encontrar en las noticias, la enésima toma del rectorado de la Universidad de Buenos Aires, donde se sigue pensando otra cosa de qué debe ser una Universidad...

martes, mayo 27, 2008

Software Factory en Wikipedia

Hoy, por primera vez, encuentro una variación notable en el contenido del concepto Sofware Factory en Wikipedia. Luego de un prolongado proceso de cuestionamiento, parece haber tomado el rumbo correcto. Finalmente, las observaciones críticas de múltiples colaboradores concluyeron en acción, en el modo en que era de esperar: se eliminó la ambiguedad del concepto, se asignó el contenido anterior a una segunda acepción en el marco de Microsoft .NET, y se comenzó a redactar un verdadero artículo sobre el tema, dejando la versión .NET en lugar aparte, donde sus adeptos podrán seguir elaborando sus ideas, o incluso eliminarlas, como ya ha pasado con algunas de sus afirmaciones iniciales sobre Software Factory y sus relaciones con el diseño basado en modelos.
Es especialmente alentador observar que el trabajo colaborativo en Wikipedia tiende a resultados correctos en su evolución histórica. Durante meses, existieron advertencias de Wikipedia sobre el carácter tendencioso de la primera definición, acompañadas de observaciones específicas en los comentarios. Todavía hoy el artículo se inicia con una advertencia sana: This article or section is in the middle of an expansion or major revamping. You are welcome to assist in its construction by editing it as well.

En fin, ahora hay que ocuparse del verdadero tema, que por cierto es más que importante, más que lo que en este momento determina su definición redefinida.

Sin embargo, no me coinciden las fechas de actualización: la última versión que recuerdo es la que se puede ver en The Internet Archive con fecha 30 de marzo de 2007. La historia de revisiones comienza a establecer cambios mayores en febrero, aunque mi impresión es que estos cambios han aparecido mucho más cercanamente, durante mayo. ¿Será que mi caché me jugó una mala pasada? (¿O quizá no entienda correctamente cómo se procesa el mecanismo de manejo de revisiones de Wikipedia?). El caso es que el artículo, que a mi entender hasta hace no mucho más que tres o cuatro días era el núcleo de la definición de Software Factory, es ahora la nueva versión .NET, con fecha de inicio en 25 de mayo.

domingo, mayo 25, 2008

La defensa de los estándares abiertos

Acabo de leer la nota de Alejandro Pisanty mencionando la creación del grupo Digistan, dedicado a la defensa de estándares abiertos en el ámbito de Internet, como secuela de la ajetreada discusión del estándar OOXML. La carta abierta de sus fundadores debiera motivar su respaldo:

Industry has always depended on standards and traditional industries have built their standards as part of a slow, controlled, top-down approach to innovation. Industrial-age standards are often heavily patented, complex, and large. They can be expensive to implement and therefore are implementable only for large established firms.
But almost forty years ago, Steve Crocker and his team wrote RFC001 and launched the networks that built the Internet using a different model based on older human values of sharing and cooperation. His vision, and that of other Internet pioneers, was of a digital world built on simple, interoperable standards, accessible at zero cost to even the smallest teams. Largely, their dream is coming true. Today we're used to an Internet of open software, open content, and open development.
While most agree, not everyone likes it. In the telecoms, entertainment, and software industries we see the destruction of legacy vendors and their replacement by new Internet communities. And many of the old industrial businesses, instead of adapting, are fighting back. The fight is intensifying because the stakes are growing. Free and open source software, open content, and open communities are together worth trillions of dollars. The key to controlling these rich ecosystems is to control the digital standards they depend on.
The outcome of this conflict will define our digital future. At one extreme, Steve Crocker's vision comes true, and the future is built on free and open digital standards. And at the other extreme, the legacy telecoms, entertainment and software vendors capture the world's digital standards by controlling the standardization processes and by using software patents.
Imagine the world if RFC001 was owned by a consortium of telecoms firms. Imagine if only those firms, and their approved partners, could develop Internet technologies. Imagine if every RFC was protected by dozens of patents, so that sending a single email or downloading a web page meant paying license fees. Imagine paying for each click. Look at your mobile phone bill and you see how close this reality is. [sigue...]

OOXML en Wikipedia.
La controversia sobre este proceso en inglés, y en castellano.
Sobre este proceso, claro ejemplo y motivo de lo que se defiende en la carta, hay mucho material disponible, tanto que no vale la pena entrar más en detalles.
Sobre Digistan, la iniciativa no se limita a un observatorio ético, sino que trabaja en la elaboración de instrumentos.

domingo, mayo 11, 2008

Bye, Bye COM: Estándares y Empresa

...otro Requiem, por COM (escrito por Ángel López). Un buen resúmen de la transición de COM a .NET, que da una idea de cómo mapear las relaciones entre las dos tecnologías. Sin embargo, quisiera agregar dos palabras al tema, que hacen a un asunto más general: el soporte de las tecnologías que son reemplazadas por nuevas versiones.
En distintas ocasiones, muchas más de las que se pudiera suponer, me he visto obligado a mantener código o arquitecturas que fueron quedando si no obsoletas, al menos demoradas; es decir, desarrollos con los que su propietario se siente conforme y no ve la necesidad de evolucionarlo radicalmente, adoptando un nuevo paradigma que le obligue a reescribir o reestructurar código por la simple razón de que la "nueva novedad" lo representa de otra manera. Éste es un fenómeno que en algunas plataformas puede degenerar en real atraso (1), pero que es absolutamente legítimo: una inversión satisfactoria no debería quedar descartada simplemente porque no encaja ya con la evolución de su propia plataforma nativa.
En el caso de la evolución de COM a .NET, así como en el paso de Visual Studio 6.0 a 2005 0 2008, el problema se plantea en el campo del soporte de documentación; quizá en cuanto a compatibilidad del código el problema no sea muy grande, pero es complicado si se requiere mantener una aplicación de VS 6 consultando MSDN; lo más que frecuente es que se hayan perdido las referencias de detalle, y que no se encuentren sino con grandes dificultades las descripciones de las versiones "antiguas" que se desea mantener. La única garantía es conservar bajo llave una copia de la documentación original, mas la historia de modificaciones, porque obtenerlo en la guía en línea puede ser casi imposible.
Este patrón se extiende al seguimiento de problemas, que una y otra vez conduce a callejones sin salida: páginas que ya no existen, aún para temas que debieran estar cercanos, pero que quizá hayan sido enviados a vía muerta en el curso del desarrollo del nuevo producto.
En más de una ocasión algún colega me explicó esto como una política disuasiva de Microsoft, para inducir a la masa de desarrolladores a adoptar las nuevas versiones de sus productos. Sin embargo, tengo la impresión de que, a nivel decisorio, esto produce otro efecto: la observación de una política de soporte del usuario descuidada y tiránica. Bastante alejada de la que he observado por muchos años sobre el AS400 y otros ambientes de IBM, y también, aunque no lo he requerido probar muy a fondo, con el caso del soporte de Sun sobre la plataforma Java.

Justamente, la conveniencia de no estar sujeto a las políticas de un proveedor, es lo que da al diseño guiado por modelos (MDA/MDD) un atractivo especial: la posibilidad de mantener el patrimonio de diseño a un mayor nivel de abstracción, nos otorga libertad de movimientos frente a proveedores y plataformas.

(1) Las facilidades de mantenimiento de código obsoleto -legacy- sobre el AS400 ;-) han llevado a muchas empresas a no innovar por años, dado que el código de su plataforma antigua sigue ejecutando sobre las nuevas versiones). Recuerdo algún caso de una distancia entre código ejecutado y sistema operativo de más de diez años.

Réquiem por BEA

Stefan Tilkov, inventor anticipado de las entradas de blog mínimas, suele exponer material más que interesante, particularmente en temas de arquitecturas orientadas a servicios, especialmente, sobre REST. Ayer publicó una con un nombre apocalíptico (The Day that Middleware Died), que remite a la reflexión de Stuart Charlton sobre la absorción de BEA por Oracle. Dos tipos de observaciones son de interés en su Oda a BEA: su análisis sobre las causas de la caída de BEA, y sus observaciones sobre arquitectura.
Sobre BEA:

(...) by late-2006 I felt BEA was losing its way. The initial AquaLogic push was good, but it spread our engineering resources thin. BEA's SOA vision, which started well, became something of an empty marketing slogan, like how '.NET' was destroyed within Microsoft.
(...) One could see Oracle's acquisition as the culmination of BEA's failure to emerge from the dot-com bubble burst. I don't entirely buy it -- Alfred managed to grow the company to $1.5b from $950m in 2001 when Coleman, then CEO, left. That's quite an accomplishment, if short of expectations. BEA was still performing, people were still buying its products, and a lot of the b.s. about JBoss or other competitors eating its lunch are rather exaggerated, in my opinion. I claim no real insider information, and am speaking for myself when I say, there is one primary, clear, reason for BEA's failure, in my opinion, and anyone "on the ground" in the company would likely agree with it: after the early-2000's recession, finance & legal -- the bean counters -- became the kings of the company. In other words, I believe BEA's wounds were self-inflicted.
Once the goal ceased being innovation & great software, it was about a pristine balance sheet, milking the support organization, and onerous following of extremely conservative accounting guidelines. There were still leaders -- Alfred Chuang still had fire in him, some product executives like Guy Churchward were bright spots, Paul Patrick in the architecture organization was also a great source of ideas (but given power far too late). Many in the sales organization knew how to make customers feel valued, and were rewarded righly. But all of them were beholden to the bean counters. Oh yeah, and there was an options scandal that one hoped would shake the power of the finance department. (It didn't.)
(...) WebLogic Server continues to be, in my opinion, the gold standard of J2EE application servers (and I've used most of them). Yet it's maddening that something as important as their management console -- arguably the defining feature of the product vs. open source alternatives! -- became dog slow. WebLogic Workshop was productive for specific products but made the transition to Eclipse years later than it should have. AquaLogic Service Bus was a visionary product, and has some great understated features for validating the dependencies amount service artifacts. But it's lack of support for RESTful services is also maddening, considering how little work would need to be done (for starters, just enable PUT and DELETE, folks!). AquaLogic DSP was another visionary product, but way too programmer-centric in a world where programmers don't give a crap about data. They needed to target the DBA or the RESTful crowd, but the small & dedicated team was too busy trying to improve the core engine with the resources they had. BEA WebLogic Integration v8.1 SP2+ was the swiss army knife of integration tools, and probably the best game in town circa 2003-2006. WLI could smoke Oracle BPEL on performance, usability, and complex transformations. But v9 was disastrous. WebLogic Portal had one of the most ambitious set of goals, and an extraordinarily bright team. But they too were plagued with quality issues, arguably due to a lack of bandwidth, and a need to compete with Plumtree internally. The Plumtree team got off to a great start with the PEP products, but I doubt if we'll ever see the fruition of that idea.

Sobre arquitecturas:
One could say that it's "the day that middleware died". Perhaps that's a good thing, in the long run. In many respects, we have a new approach to middleware that surrounds us, if only we'd take advantage of it.
(...) It also didn't help that I had stopped believing that SOA would make anyone's life any easier, and reading some of the ITIL v2 material that was guiding our efforts also really just seemed to reinforce that we were following in the grand tradition of "smart people building skyscrapers to nowhere"
En cuanto a Stuart Charlton, agregado al Reader.

martes, mayo 06, 2008

Amy Wohl: La PC ya no es el centro del universo

Apuntado por Pablo Pizarro (gracias a Google Reader), las breves palabras de Amy Wohl, resumiendo las opiniones de Sam Palmisano y Eric Schmidt, que marcan la tendencia que hoy podemos ver con bastante claridad:

At IBM's Business Partner Leadership Conference, held this week in Los Angeles, IBM CEO Sam Palmisano and Google CEO Eric Schmidt spoke on the state of computing and their vision for its future, both separately and togehter. The big news is that they agree:

  • We are moving from a PC-Centric world to a Network-Centric world filled with millions of devices of every shape and description.
  • In this Network Centric world, the PC is just another device, of decreasing importance as the emerging economies come online with their preference for mobile platforms which more closely ressemble smart phones.
  • In the Network Centric World, Open Standards and published APIs are very imortant so that new innovations can easily be attached to the network and become new platforms for deelopment.
  • The cloud (very large scale shared computing, available for hire) will become uibiquitious, probably sold by platform providers who will recruit ecoosystems of ISVs and provide a well-managed, secure platform, freeing both customers and ISVs from the need to implement hardware where they lack the skills or capital.
  • This networkcentric Computing model will require tons of storage and new interaces and methods to discover the information and manage it.
  • This enables everyone to have more access to information. Some of it will be stored in the cloud, but some of it will continue to be stored on site. It's a hybrid world.

Large traditional vendors like Microsoft will have to choose between adopting the open standards, network centric, cloud approach, finding a new market niche, and slowly becoming less relevant. That's why Microsoft's chsing so hard after the consumer market with the Yahoo.

domingo, mayo 04, 2008

Microsoft/Yahoo: final abierto

Desde ayer sábado, las noticias informan que públicamente Microsoft renuncia a la compra/absorción de Yahoo, o, al menos, da por terminadas las negociaciones formales y abiertas con la dirección de la empresa. Probablemente ahora continúen otro tipo de maniobras, destinadas a obtenerla acudiendo a los accionistas. Pero la dirección de Yahoo ha demostrado que le interesa su negocio, y que hará lo posible por defender su sitio. El final está abierto por muchas razones: varias alternativas negociadas podrían resultar en la apertura de buenos negocios para Yahoo, pero también la tensión y asedio podrían deteriorar su posición; como algunos análisis propusieran, el cambio drástico de las condiciones económicas norteamericanas podrían terminar con las negociaciones, y deteriorar ambas empresas, por el propio peso de la crisis; o podría resultar cayendo pese a todo, luego de un cerco hostil.
Siguen algunos análisis abriendo posibilidades, en cualquiera de estos sentidos:
De Scott Rosenberg, mencionado en el título de esta nota; de Miguel Helft y Andrew Ross Sorkin, en New York Times; y el detallado análisis de Marc Andreessen, en parte 1 y 2.