domingo, octubre 02, 2011

Estimando el impacto de Windows 8, parte I

Este último mes me he dedicado a recolectar información sobre Windows 8, particularmente después que la conferencia Microsoft Build develara un buen número de características y planes. Inmediatamente se observa que la nueva versión del sistema operativo trae consigo un cambio drástico respecto a los sistemas anteriores. A primera vista el cambio fundamental es el ¿estilo de presentación/técnica de construcción?, que abandona una larga tradición de interacción con las aplicaciones, introduciendo un modo inspirado o destinado al mercado de tabletas táctiles. Sin embargo, yendo un paso adelante, un cambio más importante está por debajo de éste, y es el que posibilita el funcionamiento de su nueva interfaz de usuario (Metro): el nuevo API, WinRT.
Esta nueva API no se comunica con el API Win32, o no al menos muy bien. Dice Tim Anderson (mencionado por Mary-Jo Foley):

Make no mistake: Microsoft has re-invented the Windows API in WinRT. Just to recap, WinRT is the API for Metro-style applications, the touch-centric, app-centric API for tablets and, one presumes, eventually for Windows Phone (though Microsoft has yet to admit it).
WinRT is only useable from Metro applications. You cannot call WinRT from a Win32 application, nor vice versa*. I think it is reasonable to assume that a future version of Windows which runs only WinRT is a possibility; and that Windows 8 on ARM will look a bit like that even though Win32 will still be there, but mainly out of sight; but I am speculating.
Does that mean Win32 is now legacy? In a way, but such a huge legacy that for the moment we should think of Windows 8 as two platforms side by side.
Miguel de Icaza hace una evaluación temprana entusiasta y optimista (WinRT demistified). Sin embargo, de su comentario sobre WinRT y .Net, dejando aparte las ventajas que Miguel elogia, lo que consigue es abrir nuevas áreas de interrogantes acerca de su impacto.
¿Por qué hablo de impacto? Porque Windows 8 no sale en un mercado virgen, sino en uno en el que conviven no menos de dos clases de aplicaciones, las que fueron planeadas pensando en Windows XP y predecesores, y las que fueron, esforzadamente, movidas a Vista/Windows 7, o escritas para este nuevo y, por lo que se ve, fugaz concepto. Ahora podemos decir que no solo cualquier aplicación del nivel XP/anteriores es legacy, sino que también lo serán aquellas creadas para Vista/Windows 7, dado que ambos comparten el API Win32 (Y estoy tratando de evaluar el alcance de los cambios que impacten en .NET...) Sólo por ese hecho, estarán en una categoría inferior, y espero conocer más adelante las consecuencias de performance que puedan acarrear.
Es decir, debemos mirar el movimiento hacia Windows 8 no sólo desde el punto de vista de las novedades y mejoras, sino de todo aquello que condiciona y obliga a replanear. Este es el punto que ahora me interesa fundamentalmente: considerando el patrimonio de aplicaciones en las que trabajo, si me viera obligado a asumir una migración a Windows 8, debería pensar las alternativas: si soportara Metro, lo mínimo que debiera hacer en nuestros patrones sería contemplar una variante que invocara WinRT en lugar de Win32, y asumir el nuevo tipo de eventos que implica Metro. La separación entre la presentación y la lógica "servidora" sería manejable, así como los lenguajes de implementación (Esto vale para cualquier variante de interfaz de usuario). Si no soportara Metro, poco cambiaría o nada, pero los problemas estarían en el ambiente: estaría ejecutando aplicaciones en un ambiente "no preferente".
Finalmente, siempre queda la alternativa simple de desechar la interfaz del sistema cliente, y usar java. ¿cuál se supone que sería la alternativa más rápida y confiable?
¿Cuál supone usted que sería la alternativa que una corporación usaría si tuviera que pensar en la transición de sistema operativo de Microsoft?
Los reclamos de la comunidad de Silverlight pueden ser pálidos reflejos del impacto del cambio generalizado sobre el mundo corporativo. Especialmente si las politicas de actualizaciones de Microsoft comienzan a establecer presión hacia el cambio.

martes, septiembre 13, 2011

languidece .NET?

Se multiplican los avisos de cambio de paradigma en Microsoft. Si hace algún tiempo los usuarios de Silverlight encendían luces de alarma, ahora creo que toda la comunidad de desarrolladores con algún contacto con Microsoft debe ajustar sus cinturones...Windows 8 anuncia cambios de fondo, dejando casi como "legacy" el concepto de aplicaciones de escritorio, adoptando un estilo basado en las nuevas características de recursos móviles (tabletas y teléfonos). Cambios extensos, radicales, que abarcan el API Win32 mismo. ¿Es la ruptura constante un criterio razonable para abordar el mercado?
Jonathan Allen, en InfoQ, publica un panorama de los cambios que [parece que] se avecinan :

Windows 8 introduces a new core API called WinRT. This is used to develop Metro style applications using C/C++, .NET, or JavaScript. These applications automatically gain features such as hardware acceleration and advanced power management out of the box. Existing Silverlight and WPF applications can be ported to the new “Native XAML” libraries with minimal effort.
What follows is a summary of the keynote presentation. More details will be provided as they become available.
General Notes
Windows 8: Base line memory usage dropped from 540 MB to 281 MB.
The lock-screen can now display user content.
Touch-based passwords, essentially you tap on three points of an image to unlock the machine.
Like Windows Phone, the start page uses the metro style with live tiles.
There is a heavy emphasis on full screen applications.
Application specific and system settings share the same space on the user interface. It appears that applications will need to indicate which systems settings are relevant.
New version of Internet Explorer will be completely free of chrome. All of that functionality is hidden in application bars that slide into view.
Spell check is included system wide.
Developer preview includes Visual Studio 11 Express, Expression Blend 5. There is no timeline for the next milestone, which is the public Beta. Intern updates will be pushed to the preview machines on an as needed basis. The preview will be available starting tonight as http://dev.windows.com at for x86/x64.
Application Integration
Windows 8 will have extension points known as “charms”. An example of a charm is the “share charm” which shows all the ways text can be shared such as email, Facebook, Twitter, etc. Applications can register themselves inside a charm by implementing the correct interfaces. Meanwhile other applications can indicate they are capable of sending information to the charm. The concept is very much like JavaScript mashups or classic OLE, but with a lot more thought about what those interactions should be.
System wide search is now supported. Again, applications can register themselves as a search provider.
Applications can expose files directly from the cloud for use by other applications. One does not need to copy files such as images to the local hard drive before other applications can access them.
Developing for Windows 7: Classic platforms:
· HTML/JavaScript on Internet Explorer
· C/C++ on Win32
· C#/VB on .NET and Silverlight
Developing for Windows 8: Metro Style
Windows Kernel is still at the bottom of the stack
WinRT is the new OS-level API layer. This is the new native API for Windows, it isn’t a new layer on top of Win32.
You can access WInRT from C/C++, C#/VB, or JavaScript. XAML is the UI layer for C, C++, C#, and Visual Basic. HTML/CSS will continue to be used as the UI layer for JavaScript.
Visual Studio will have project templates for the various styles of Windows 8 applications. The first demonstration is a JavaScript-based application. The application isn’t compiled but it is packaged into a bundle that includes all the html and JavaScript files needed by it. Windows 8 runs it directly, there is no need to launch the web browser.
As alluded to above, JavaScript can access the native functionality from the WinRT API. In the keynote demo it only took a couple lines of code to expose the new Windows open file dialog. Since Facebook was already installed on the machine the open file dialog showed images from the presenter’s Facebook page. The JavaScript application had no networking code at all, this link between it and Facebook was handled entirely by the platform.
Expression Blend now supports HTML and CSS with much
The HTML 5 grid proposal is essential to building Windows 8 applications. Without it supporting the wide variety of screen resolutions that Windows 8 runs on would be very difficult.
Metro style applications are automatically suspended when not visible. This was done to prolong battery life.
App Stores
As expected there is now going to be a Windows store for distributing applications. The technological aspects of application licensing is handled by the by store itself, one merely has to indicate basic information such as price and whether or not there is a demo period.
A certification process is required for offering applications in the Windows store. The tools used to certify applications will be given to developers so they can see and correct violations before they formally submit the application.
The application for accessing the Windows 8 store is actually written using JavaScript over the WinRT API.
The app store is not limited to Metro style applications, traditional Win32 applications can also be offered via the store.
Upgrading from Silverlight to Windows 8
In the demo all the of the existing XAML worked as-is. The presenter just needed to change the namespaces (e.g. System.Windows becomes Windows.UI) and tweak the networking code. With only a couple more lines of code he was able to register the application as a search provider.
Moving from Windows 8 to Windows phone just required an extra line or two.
Hardware Support
A new mode called “Connected Standby” is inspired by mobile devices. The power consumption is very low with occasional spikes as the Windows temporarily turns on the network connection to allow applications to receive updates. Since the system is never actually turned off it comes alive instantly.
Max hard drive size is 256 terabytes. Windows 7 was limited to a 2 terabyte boot drive.
The entire platform is built to use hardware accelerated graphics. Metro style applications will use them by default, no additional coding is needed to enable it.
The Sensor Fusion API will combine the information from the gyro, accelerometer, and magnetometer. Getting basic information such as the physical orientation of the device takes three lines of code.
The networking stack now supports concepts such as the side-channels in 3G.
For the give-away they are offering a Tablet running Windows 8 and Visual Studio.
Refresh and Reset
Using the Refresh command will remove everything except personal information/settings. Metro-style applications will be retained, any Win32 style application will be removed. This is one from a baseline image and should be run in response to system problems such as viruses.
The Reset command will completely wipe the PC. All personal information is removed and it is returned to the factory settings as if it were just purchased new.
There is a command line tool to update the baseline image. This would be used to add applications such as Visual Studio or Office to the standard image. Enterprise users would most likely want their companies custom software also included in this baseline image.
Cloud Services
Application settings, themes, passwords, etc. can by synchronized across machines using a Windows Live account.
The Windows address book pulls in contacts from all sources including social networking sites and exposes them via your Windows Live account. Likewise shared calendars are aggregated.
Windows SkyDrive is available to all users with a Windows Live account. Developers can access it as if it were a normal disk drive.
Windows Live allows one machine to access another even if it is behind a firewall. Companies that are concerned about information security should take care, as this allows common users with no technical skills easily move otherwise restricted files from their workstation to home machine without even being in the building.
Microsoft is expecting developers to use Windows Live to connect their applications together.
Who built the Apps?
17 teams of 2 to 3 developers each worked for ten weeks on the demo applications. They were all summer interns working on an evolving platform.
Fasten your belts, gentlemen...

jueves, agosto 25, 2011

ERPs e innovación (a propósito de gerenciamiento)

Adam Hartung, comentarista de tecnología de Forbes, compara la dirección de Hewlett Packard con la de Apple, señalando el gerenciamiento "de corte industrial" de HP como gran causa de su progresivo deterioro. Pero hablando de gerenciamiento e innovación, Hartung da una agresiva e interesante visión del software ERP.  Qué dice Hartung:

Now CEO Apotheker’s plan for HP’s growth is selling ERP software from a third-tier competitor. ERP (enterprise resource planning) applications like SAP and Oracle are viewed today as the remarkably expensive, hard to install, hard to maintain, hard to modify, monolithic, bureaucracy creating, innovation killing systems they were designed to be.  ERP applications were created to force companies, functions and employees to replicate previous decisions, in the hopes of increasing control (especially financial control) and cutting operating cost.  Not to learn, or do anything new.  They were designed to create rigidity, and are completely unable to enhance flexibility, market responsiveness and growth.  ERP was the emerging high-tech “solution” in 1992!
It is clear Mr. Apotheker is returning to his previous personal success, as CEO of SAP.  He isn’t looking to the future and how he can meet new, unmet needs.  He’s investing in what he knows, from his past.  His focus on “business solutions” is his way of pushing HP to be more like SAP – only 2 decades too late, against enormously well funded competitors, in a low-growth marketplace looking for new solutions.  Too bad for HPs investors, employees and suppliers.

domingo, agosto 21, 2011

IBM como parte de la historia tecnológica

Un artículo aquí que suele ser visitado es el que habla sobre la historia de los servidores de IBM. Lamentablemente, el enlace que abre el artículo hace mucho tiempo que dejó de apuntar a algo, viejo problema de cualquier artículo apoyado en la web...A raíz de éste y otros casos similares, hace tiempo que reemplazo los enlaces por un extracto del tema de que se trate. No pierdo la esperanza de recuperar el viejo artículo, pero algo se puede hacer: gracias a The wayback machine, se puede recuperar un corte de la página al 5 de enero de 2007, que refleja en general el contenido de aquella página. Esta referencia se incluye ahora en mi nota de 2006. Dada la volatilidad del material escrito para Internet, The Internet Machine cumple un servicio irreemplazable.
Pero volviendo a IBM y su influencia en el desarrollo tecnológico del siglo XX: a raíz de su centenario, la empresa ha desarrollado mucha documentación que supongo que será más persistente. El conjunto más importante de documentos, es el que enumera cien aportes de IBM a la tecnología. Lamentablemente, por falta de tiempo dejé pasar el mejor momento para reproducir excelentes materiales difundidos durante el centenario. No obstante, este resumen y otros posteriores se proponen remediarlo. Y respecto a IBM, la observación más destacada acerca de su centenario, no es tanto acerca de su capacidad de crecer y mantenerse en la primera línea de la investigación tecnológica, sino la pregunta sobre su futuro: hace ya algunos años IBM ha producido un giro radical en su visión de los negocios, que por ahora da buenos dividendos, pero pone en cuestión su liderazgo tecnológico, y su esfuerzo en el desarrollo de la investigación. La pregunta es ¿tendrá un segundo siglo de liderazgo?

Volviendo a los papeles del centenario: puestos en desorden, simplemente por preferencias y a medida que los voy encontrando, el primero para reproducir es el dedicado a Codd y las bases de datos relacionales:
In 1970, Edgar F. Codd, an Oxford-educated mathematician working at the IBM San Jose Research Lab, published a paper showing how information stored in large databases could be accessed without knowing how the information was structured or where it resided in the database.
Until then, retrieving information required relatively sophisticated computer knowledge, or even the services of specialists who knew how to write programs to fetch specific information—a time-consuming and expensive task.
Databases that were used to retrieve the same information over and over, and in a predictable way—such as a bill of materials for manufacturing—were well established at the time. What Codd did was open the door to a new world of data independence. Users wouldn’t have to be specialists, nor would they need to know where the information was or how the computer retrieved it. They could now concentrate more on their businesses and less on their computers.
Codd called his paper, “A Relational Model of Data for Large Shared Data Banks.” Computer scientists called it a “revolutionary idea.”
Today, the ease and flexibility of relational databases have made them the predominant choice for financial records, manufacturing and logistical information, and personnel data. Most routine data transactions—accessing bank accounts, using credit cards, trading stocks, making travel reservations, buying things online—all use structures based on relational database theory.
Codd’s idea spawned a new family of products for IBM, centered on the IBM ® DB2 ® database management system, as well as the industry-standard computer language for working with relational databases, called SQL.
According to the New York Times obituary for Codd, “… before Dr. Codd’s work found its way into commercial products, electronic databases were ‘completely ad hoc and higgledy-piggledy,’ said Chris Date, a relational data expert who worked on DB2 at IBM before becoming a business partner of Dr. Codd’s.”
Like many revolutionary ideas, the relational database didn’t come about easily.
By the 1960s, the vast amount of data stored in the world’s new mainframe computers—many of them IBM System/360 machines—had become a problem. Mainframe computations were expensive, often costing hundreds of US dollars per minute. A significant part of that cost was the complexity surrounding database management.
Codd, who had added a doctorate in computer science to his math background when he came to the United States from his native England, set out to solve this problem. He started with an elegantly simple premise: He wanted to be able to ask the computer for information, and then let the computer figure out where and how the information is stored and how to retrieve it.
IBM’s Don Chamberlin said that Codd’s “basic idea was that relationships between data items should be based on the item’s values, and not on separately specified linking or nesting. This notion greatly simplified the specification of queries and allowed unprecedented flexibility to exploit existing data sets in new ways.”
In his seminal paper, Codd wrote that he used the term relation in the mathematical sense of set theory, as in the relation between groups of sets. In plain terms, his relational database solution provided a level of data independence that allowed users to access information without having to master details of the physical structure of a database.
As exciting as the theory was to the technical community, it was still a theory. It needed to be thoroughly tested to see if and how it worked. For several years, IBM elected to continue promoting its established hierarchical database system, IBM IMS (Information Management System). A hierarchical system uses a tree-like structure for the data tables. While IMS can be faster than DB2 for common tasks, it may require more programming effort to design and maintain it for non-primary duties. Relational databases have proven superior in cases where the requests change frequently or require a variety of viewpoint “angles.”
IBM, Rockwell and Caterpillar developed IMS in 1966 to help track the millions of parts and materials used in NASA’s Apollo Space Program. It continues to be IBM’s premier hierarchical database management system.
In 1973, the San Jose Research Laboratory—now Almaden Research Center—began a program called System R (R for relational) to prove the relational theory with what it called “an industrial-strength implementation.” The project produced an extraordinary output of inventions that became the foundation for IBM’s success with relational databases.
Don Chamberlin and Ray Boyce invented SQL, for Structured Query Language, today the most widely used computer language for querying relational databases. Patricia Selinger developed a cost-based optimizer, which makes working with relational databases more cost-effective and efficient. And Raymond Lorie invented a compiler that saves database query plans for future use.
In 1983, IBM introduced the DB2 family of relational databases, so named because it was IBM’s second family of database management software. Today, DB2 databases handle billions of transactions every day. It is one of IBM’s most successful software products. According to Arvind Krishna, general manager of IBM Information Management, DB2 continues to be a leader in innovative relational database software.
Dr. Codd, known as “Ted” to his colleagues, was honored as an IBM Fellow in 1976, and in 1981, the Association for Computing Machinery gave him the Turing Award for contributions of major importance to the field of computing. The Turing is generally recognized as the Nobel Prize of computing.

Selected team members who contributed to this Icon of Progress:

  • Ray Boyce Co-developer of SQL (Structured Query Language)
  • Edgar “Ted” Codd Mathematician, IBM Fellow
  • Donald Chamberlin Co-developer of SQL
  • Christopher J. Date Longtime collaborator of Ted Codd
  • Patricia G. Selinger Founding manager of the Database Technology Institute at IBM Almaden Research Center
Los enlaces del artículo reproducido son míos.

sábado, agosto 20, 2011

SPLC 2011

Con programa preliminar a partir de este domingo, el lunes y martes próximo se desarrollará en Munich la 15ª conferencia de Lineas de Producto Software (SPL, Software Product Lines). Un concepto fundamental en la construcción de software, una fuente de ideas para quienes lo construyen, tanto sea en grandes unidades económicas, donde sus conceptos deberían ser  irremplazables, como para unidades menores, donde deberían motivar líneas de investigación y trabajo más racionales.
Aunque hemos conversado más de una vez sobre su significado, la descripción de uno de sus tutoriales explica razonablemente su meta:
Product Line Engineering is a common approach to address a business with a family of related software products. Instead of having separated development projects for each product in the family, products are built using a shared set of core assets, such as reference architectures and common infrastructure and domain-specific components. Key drivers for PLE are the potential cost savings due to shared core assets, as well as new business opportunities by, for instance, supporting tight integration and improved interworking among members of the product family. 
 Estoy persuadido de que SPL y MDD recorren caminos convergentes y retroalimentados. Uno de los tutoriales que se desarrollarán, toca esta característica: "Leveraging Model Driven Engineering in Software Product Lines", desarrollado por  Bruce Trask and Angel Roman:
Model Driven Engineering (MDE) is a promising recent innovation in the software industry that has proven to work synergistically with Software Product Line Architectures (SPLA). It can provide the tools necessary to fully harness the power of Software Product Lines. The major players in the software industry including commercial companies such as IBM, Microsoft, standards bodies including the Object Management Group and leading Universities such as the ISIS group at Vanderbilt University are embracing this MDE/SPLA combination fully. IBM is spearheading the Eclipse Foundation including its MDE tools like the Eclipse Modeling Framework (EMF) and the Graphical Modeling Framework. Microsoft has also launched their Software Factories and DSL Toolkit into the MDE space. Top software groups such as the ISIS group at Vanderbilt are using these MDE techniques in combination with SPLAs for very complex systems. The Object Management Group is working on standardizing the various facets of MDE. All of these groups are capitalizing on the perfect storm of critical innovations today that allow such an approach to finally be viable. To further emphasize the timeliness of this technology is the complexity ceiling the software industry find itself facing wherein the platform technologies have increased far in advance of the language tools necessary to deal with them. This complexity ceiling is evident in today’s Software Product Lines.
 Invito a seguir sus sesiones, a solicitar sus presentaciones, y a tomar contacto con sus participantes. Estas conferencias anuales acercan el mejor material sobre el tema.

Información y seguimiento en el sitio de la conferencia.

jueves, agosto 04, 2011

Actualización en comunicaciones

A propósito de la introducción oficial del sistema de TDT en España (el asunto sería válido también en Argentina y Chile, con cambios recientes en el mismo sentido), la compañia de satélites Astra maneja un informe que lo cuestiona, y que pone sobre la mesa el estado del uso de las comunicaciones. D. Toledo, en El Confidencial:

“La sentencia definitiva a la TDT nace en la propia Comisión Europea, que contempla como escenario la liberalización total del espectro radioeléctrico para dedicarlo a otros servicios, con lo que la televisión se difundiría mediante otras tecnologías. En definitiva, hablaríamos de la total desaparición de la TDT”, reza el informe. Astra recuerda que la televisión digital terrestre restringe el espacio de que disponen los operadores para sus emisiones, lo que limitará el desarrollo de los programas en alta definición o en 3D. “Tendrán que elegir y descartar los componentes vanguardistas. El satélite, el cable o Internet son el futuro de la televisión, por mucho que el Gobierno español haya hecho una muy equivocada y costosa apuesta”, remata.
La cruzada de Astra contra la TDT es de largo aliento. Y no es del todo inocente. Se siente perjudicado por el modelo elegido por el Gobierno, ya que atentaría contra el principio de neutralidad entre tecnologías. Según calcula la empresa luxemburguesa, llevar la señal de televisión digital terrestre a entre el 96% y el 98,5% de la población ha supuesto la creación de 3.750 centros de radiodifusión nuevos, lo que implica una inversión inicial de 327 millones de euros, con un coste de mantenimiento de 67,2 millones anuales. De acuerdo con sus estimaciones, el satélite es más eficiente a partir de un 90% de cobertura
La progresiva liberalización del espacio radioeléctrico para generar el denominado dividendo digital y dar cabida a servicios de banda ancha móvil a velocidades superiores a las actuales refuerza estos argumentos. De momento, el proceso obligará a reubicar las cadenas. Ya está en marcha la modificación de los canales instalados en la banda entre los 790 y los 862 MHz. “Los operadores, conscientes de que el futuro pasa por la transmisión de datos mediante la red móvil, ya han anunciado que necesitarán más espacio (al menos 100 MHz), con lo que se prevé que un segundo dividendo digital, previsto para 2015, se adelante a 2013”, añade Astra. Cada cambio de esta índole obliga a los hogares a una nueva antenización.

miércoles, julio 27, 2011

Patentes, innovación, y el perro del hortelano...

Quiero reproducir la nota de Mariano Amartino sobre el problema de las patentes en Estados Unidos, modelo que comienza a proliferar bajo diversas formas en otros lugares...Un modelo que se asemeja a otro caducado hace doscientos años...
Las patentes de software en USA ya paralizan emprendedores
Interesante artículo de The Guardian: App developers withdraw from US as patent fears reach ‘tipping point donde se muestra que para un desarrollador independiente ya es casi imposible desarrollar una nueva aplicación de software sin estar pisando o rozando una patente propiedad de algun gigante o de un troll de patentes.
Recuerdo haber escrito irónicamente como Intellectual Ventures era “La fábrica del futuro” y como su modelo era sentarse a imaginar cosas y patentarlas sin intención de usarlas… solo tenerlas en un portfolio capaz de ser usado para atacar legalmente a los que crearan productos relacionados.
Pero tal vez, lo que nunca imaginé era que en algún momento esto iba a molestar tanto al ecosistema de emprendedores que en medio de demandas cruzadas se iba a obligar a IV a mostrar el nombre de sus inversores y algunas sopresas aparecen en ese listado: Apple, Microsoft, Amazon, American Express, Cisco, eBay, Google, Intel, Nokia, Sony… y al menos una docena de universidades están apoyando este modelo de la forma más explícita posible: con cash puro y duro. [Listado completo de inversores en este PDF]
Y entonces lo que uno ve es que el famoso mantra de fomentar la innovación que muchos dicen es una simple mentira ¿como se va a fomentar la innovación si ponen fondos en la expresión máxima de un Patent Troll? ¿como van estas empresas a “foster the entrepreneurship” cuando están cerrando caminos a innovadores para patentar ideas con el fin último de tenerlas dormidas y demandar a terceros? Eso no es innovación y eso muestra que el Gobierno de USA (en momentos que busca hasta tener Visas para Emprendedores) no entiende el nivel de estancamiento que tiene su modelo económico.
Coincido con Chris Sacca cuando dice que este es un modelo mafioso que recién ahora se empieza a hacer conocido… de hecho para el que no lo sabía la gente de Intellectual Ventures tiene 1100 sociedades anónimas CREADAS para demandar a emprendedores.
Lo perverso en esto que las patentes de software (y otras) nacieron para darle al pequeño inventor la posibilidad de tener una ventaja intelectual frente a los gigantes que los copiaban y solo hubo dos cambios en el proceso de patentamiento que lo convirtieron en un modelo anti-innovación:
a) Los tiempos se hacen lo más largo posibles al punto de ser ridículos
b) No se exige una aplicación real para aprobarlo ni se revisa el arte previo
Para poner un ejemplo, si tengo una persona sentada en un escritorio y piensa: “mmmm en el futuro se va a poder manejar una interfaz de usuario sin tocar una pantalla o un dispositivo físico, la orientación de nuestra mirada va a servir para ejecutar comandos” y si Julio Verne hubiera ido a la oficina de patentes de USA hoy la aviónica de Lockheed-Martin para los F22 no se podría aplicar porque:
a) Esa patente era perpetua
b) La tecnología necesaria para que ESE pedazo de innovación aparezca recién estuvo disponible hace poco
Cuando la idea de negocio es sentarse e imaginar el futuro (sin saber como funciona) patentarlo y esperar que otros creen los bloques que pueden hacer esas patentes una realidad para ir a demandar por millones de dólares a cualquiera que quiera emprender o crear algo nuevo… es que el sistema está podrido.
Duda: ¿te parece que exagero? Lean sobre France Brevets o miren Patent Absurdity

sábado, julio 16, 2011

LeanEssays: How Cadence Determines Process

Leído en el blog de Mary Poppendieck...

LeanEssays: How Cadence Determines Process: "If you want to learn a lot about a software development organization very quickly, there are a few simple questions you might ask. You might..."

jueves, julio 14, 2011

Webclient mobile es ahora open source

La newletter de CM First publicada hoy comunica que la elaboración de las nuevas plantillas destinadas al soporte de aplicaciones móviles se convierte en un proyecto open source. Es decir, abierta fundamentalmente a la comunidad de usuarios y desarrolladores de Plex/Webclient, porque de todas formas trabajar con ellas exige disponer de una licencia. Sin embargo, esta decisión representa otro paso destinado a abrir el desarrollo de patrones, semejante al que diera AllAbout hace un par de años abriendo el desarrollo de su desarrollo sobre XML. La arquitectura de Plex en su basamento en patrones y el desarrollo creciente de su API están permitiendo abrir sus posibilidades y extender su alcance. Los patrones para dispositivos móviles (teléfonos y tablets) se han iniciado con una base importante, y se potenciarán con participación abierta. Hay muchos otros campos donde aplicar este concepto.
El nuevo proyecto, en Google.Code.

domingo, julio 03, 2011

Sugerencias que da un proyecto

Bob Fields, de Walt Disney World, comenta en The Model Driven Software Network, la  estrategia de la compañía para el desarrollo de sus aplicaciones usando Java, Eclipse, Rational, Maven. Una experiencia que recién comienza a describir, pero que ya presenta aspectos de interés si la sobrevolamos un poco, sea en general como medio de articular una línea de trabajo con MDD, o, siendo más específico, desde el punto de vista de Plex. Dice Bob:
(...) My main passion as an architect is in finding ways to improve the software development process through automation. I have championed the adoption of Apache Maven at WDPR, but much work remains before we have full adoption and integration over all phases of the lifecycle.(...) I led the effort to adopt an MDA tool several years ago. After investigating a number of alternatives (two no longer exist: OptimalJ and ArcStyler), we settled on the open source tool AndroMDA because of the maven implementation plus the mature output capabilities using velocity templates: Java, Spring, Hibernate, EJB, EJB3/JPA, Struts, JSF, WebServices, jBPM/Drools, dotNet NSpring/NHibernate/ASP.
 Es decir, articular una herramienta MDD con el mayor espectro posible de salidas, incluyendo todo en algún tipo de herramientas que permita articular y automatizar cuanto sea posible del ciclo de vida del sofware. En el caso de Plex, muchas sugerencias para extender y abrir el desarrollo, adelantándose a lo que en un momento determinado sea posible hacer con la IDE. Lo que iniciara Webclient (puente con Eclipse + Web), ampliado.

jueves, junio 23, 2011

Win8, Silverlight, y otra razón en favor de MDD

Las primeras presentaciones de Windows 8, todavía muy preliminares, han contribuído a crear un revuelo mayúsculo en al menos parte del mundo de desarrolladores de Microsoft, básicamente en la comunidad de Silverlight, y hasta cierto punto también en la comunidad .NET. Según parece (a casi dos años todavía de su lanzamiento), Windows 8 será profundamente distinto, tanto en su diálogo con el usuario, como en las herramientas con las que construirá su interfaz con él. La respuesta pública ha tenido dos caras: de parte del mercado comprador (hogar y socios de negocios interesados en salir al paso de la competencia en tablets y teléfonos inteligentes), expectativas positivas. De parte de la comunidad de socios y desarrolladores que construyen para su arquitectura actual, quejas y desconfianza. ¿Por qué? porque intuyen, tanto a través de las presentaciones, como por lo que no se dice, que las herramientas actuales ya no estarán en el centro del negocio, sino que pueden caer a un mercado secundario, mientras el foco se desplaza a aplicaciones montadas sobre HTML5, CSS3 y javascript. Justin James, en Techrepublic, es uno entre otros muchos, que describen este estado:

There is an absolute firestorm around HTML5-based apps in Windows 8 and where it leaves native app technologies like WPF, Silverlight, and WinForms. I have no idea what is happening for sure, and I guarantee you that all of my Microsoft contacts either do not know or would not tell me if they did, and I respect that. Here is what I do know:
  • Windows 8 appears to have an application building engine based on HTML5 technologies (I’m including JavaScript and CSS3 in that umbrella).
  • Microsoft stopped pushing Silverlight as a Web app add-in a while ago, and said it was for “out of browser,” cross-platform, and special purposes (like WP7 development).
  • WinForms got backburnered with the release of WPF.
  • The pace of Silverlight development has slowed significantly as the technology matures.
  • Silverlight has been a big success in writing internal applications, and Silverlight is not the pain point in writing WP7 apps (the APIs and their lack of support for many scenarios are).
  • Microsoft has displayed a worrisome habit of dropping technologies just as they seem to be fulfilling their potential.
  • Silverlight has been increasing its capability for quite some time, heading towards convergence with WPF. The big barrier has been the size of the download; the Silverlight team stated a while back that the installer should never be bigger than Flash’s.
Based on what I know and the current trends, I do not think Silverlight is going away any time soon, but I do think Microsoft is seeing HTML5 as “Silverlight Lite.” Since Silverlight is already “WPF Lite,” It’s conceivable that WPF and Silverlight will merge, basically putting the out-of-browser capability onto WPF, and either taking out the stuff that doesn’t go across platforms or just having two WPF profiles (just as Silverlight has a phone profile that is less capable than the full Silverlight platform). Then, Microsoft can feel free to push its HTML5 apps to folks that like the Silverlight idea but don’t feel comfortable with the technology. This is 100% pure conjecture on my part though. Mary Jo Foley has some interesting information as well, and Laila Lotfi has a good analysis of the situation.
Pongamos esta situación entre paréntesis: falta mucho para que se desenvuelva completamente la ¿nueva? estrategia de Microsoft. En poco más de dos años, se ha producido una explosión de ofertas de arquitecturas, sistemas operativos, y estilos y alcance de aplicaciones. Claramente esta situación clama por otro estilo de desarrollo. Jugarse hoy por una arquitectura puede ser suicida, pero no dedicarse a ella también puede ser una decisión para arrepentirse largamente. Este panorama trae a primer plano a las herramientas que basan el desarrollo en modelos, construyendo la lógica de negocios, o la lógica a secas, en un terreno abstracto, con la capacidad de desplegarla luego en la arquitectura que haga falta. Así, si una arquitectura de pronto va a vía muerta (como quizá pase con Simbian), el patrimonio en aplicaciones desarrolladas no queda atada a la arquitectura, la plataforma, o el framework, sino que es viable desplegarlo en otra alternativa.
Frente a las ocasionales afirmaciones acerca de eventuales debilidades del desarrollo basado en modelos, me cuento entre quienes sostienen que este universo de múltiples galaxias, tiene su llave en MDD. Cuando he presenciado defensas de distintos frameworks, en un momento donde éstos se encuentran en general atados a un puñado de propietarios, he sostenido que jugarse por uno puede significar perder mucho, simplemente si el propietario es comprado o cambia de estrategia (y está claro que Simbian no es el único caso).
El carácter abierto de MDD permite que un ecosistema de herramientas de modelado se acompañe por otro que permita ofrecer generadores que transformen los modelos abstractos a las distintas arquitecturas, plataformas, frameworks y lenguajes. Si el estado hoy es imperfecto, hacia allí se moverá, perfeccionando las soluciones.

jueves, junio 16, 2011

Conferencia CGN: Karsten Thoms sobre principios básicos

A falta de oportunidad de participar en la conferencia, dedicaré algunos días a comentar lo que de las presentaciones aparece como más interesante. Soy enemigo de los powerpoints, porque están pensados para servir de guía durante una conferencia o presentación, y acompañan la conversación del disertante, pero reflejan pálidamente lo que el autor conversó. En el caso de la presentación de Karsten Thoms, esta es tan espartana que podría dudarse de cuál fue su contenido. Sin embargo, los diez títulos hablan fuerte y claro. De entre ellos, quiero destacar los siguientes, que coincido en que determinan la factibilidad de usar un generador de código. Interpretaré libremente lo que Karsten explicara, basándome en sus sentencias minimalistas:

Mezclar artefactos cuyo código es generado con otros creados 'a mano' (Mixed Generated/Manual Code Artifacts). Este escenario implica que hay aspectos que, aunque fueran representables en un modelo, no pueden ser traducidos a código. Estos espacios no cubiertos derivan de un generador que ignora aspectos del modelo, y por lo tanto no es capaz de representar la totalidad. Aún cuando pudiera haber casos en que la parte manual (opaca para el modelo) pueda rescatarse, al no tener relación con la descripción abstracta, el esfuerzo de integración corre por cuenta del "codificador manual". Si aplicamos esta falta de integración a modelos complejos y grandes, el esfuerzo de seguimiento de la relación entre las dos partes es peligroso, y posiblemente motivo de fracaso.

No reestructure su código generado (Don‘t Refactor Your Code Generator Code). Aplicar una nueva capa de optimización de código al código generado es doble trabajo, y ganancia de corto alcance, ya que al no afectar al modelo, el código se reproducirá a la siguiente oportunidad. Si su ciclo de desarrollo se basa en iteraciones cortas, la refactorización puede ser agotadora (e inútil a futuro). Esto no quiere decir que no sea bueno refactorizar. Pero debe hacerse sobre el modelo, y sobre las reglas de transformación; es decir, una refactorización bien distinta. El código debe derivar optimizado, no rehecho a posteriori.

Hay otros tres puntos que resultan especialmente interesantes, pero en este caso, trataré de conocer directamente su posición sobre ellos:
  • Missing Reference Models /Implementations
  • Don‘t Participate Developers
  • Requiring The IDE For Execution
 Para seguir a Karsten, su blog.

lunes, junio 06, 2011

Esperando noticias de la conferencia...

Entre el 1 y el 3 de junio se desarrolló la conferencia anual de Plex. No habiendo participado, espero las noticias...En unos días, más detalles de lo que el programa anticipaba.
No es la única conferencia de la que espero noticias: también una semana antes se completó la conferencia de Code Generation Network. En este caso, algunos adelantos han dado Pedro Molina, Marco Brambilla, Angelo HulshoutJohan den Haan, entre otros. Lamentablemente, estas semanas, poco tiempo para dedicar por anticipado...

domingo, mayo 29, 2011

Argentina y los emprendedores

Entre tantas cosas que andan mal en Argentina, si hay algo que da aliento, es su capacidad de generar emprendedores, creadores de nichos de oportunidades. Frente a una clase dirigente esclerosada, la sociedad pugna por mejores horizontes. El diseño y el desarrollo de la industria del software se han convertido desde el estallido de la crisis del 2001, en una fuente de buenas noticias nacionales. La Nación comenta hoy el último caso (nota de Francisco Jueguen):

Arrancó como todo pequeño emprendimiento en la Argentina: con muchas ganas, ideas geniales, poco presupuesto y oficinas transitorias en un Starbucks. Dos años después de un primer buen cliente, incontables y trasnochadas horas de trabajo, y una oportunidad única en el mercado, despertó el interés del gigante.
En Altodot, una firma local de desarrollo de aplicaciones para redes sociales, sólo trabajan 15 personas. Pero desde hace dos semanas, esta pequeña compañía tecnológica acumula un capital exclusivo que sirve para rellenar su disfuncionalmente reciclada oficina ubicada en lo que hoy se llama Palermo Valley.
Es que tienen un fan. Pero no es un fan cualquiera. No es un cliente, un usuario o un simple interesado en el mundo del desarrollo tecnológico. Ese nuevo fan es Facebook, la red social más importante del planeta, que hace unas semanas decidió "recomendar" por primera vez a una compañía en la región. Y la elección fue argentina.
"Para nosotros es un logro muy importante, sobre todo en el reconocimiento a nivel imagen", afirma Antón Chalbaud, el CEO de Altodot, al comentar la inclusión de la empresa que conduce al prestigioso Programa de Referidos de la red social que aglutina a 600 millones de usuarios.
Este programa agrupa a una exclusiva red de empresas seleccionadas por Facebook a través de un exigente, minucioso y largo proceso. Pero la recompensa es grande. Una vez elegidas, se las define como aquellas que realmente "tienen la habilidad de entender los mecanismos sociales y las posibilidades técnicas en la plataforma".
"Aunque no es una certificación", dice Chalbaud, son 90 las firmas en el mundo referidas por la exitosa empresa de Mark Zuckerberg para trabajar con desarrollos y aplicaciones sobre Facebook.
El joven empresario, nunca recibido de la carrera de Administración de Empresas de la Universidad de San Andrés y con un posgrado en el IAE, es un hombre de experiencia en el mundo de la tecnología. Fundó su primera puntocom en 1999 y pasó tres años detrás del managment de Sónico, una red social nacida en el país. A fines de 2009, fundó Altodot junto con otros socios. "Los primeros meses calentamos motores. En 2010, facturamos 500.000 dólares y las proyecciones de este año son de 1,5 millones", explica, enfundado en una remera rosa en la que se integra su nuevo proyecto, The Fan Machine, con Facebook y con Twitter.
"Estamos cambiando el foco de la compañía. Venimos de ser una empresa de servicios y queremos transformarla en una que desarrolle producto. Ahora estamos lanzando una plataforma social de marketing [ www.thefanmachine.com] en español, inglés y en portugués", indica Chalbaud.
"La idea es ayudar a las compañías pequeñas o grandes, a través de esta herramienta, a que sea más fácil conseguir una mayor cantidad de fans tanto en Facebook como en Twitter", relata. "Si tenés una fan page , podés agregar aplicaciones que te ayuden a tener más fans y eso se hace muy fácil, en minutos, y, hoy por hoy, de manera gratuita", completa. La plataforma está actualmente en beta (en modo de prueba).
La noticia llegó hace sólo dos semanas. Chalbaud estaba disertando en un seminario de exportación de tecnología en los Estados Unidos. Sobre la mesa, su teléfono vibró. Leyó el e-mail y una eterna sonrisa se le dibujó en su cara. Había pasado la prueba y era parte de la red de empresas de desarrollo recomendadas por Facebook. Envió el correo a toda la empresa y estuvo a punto de contarlo en el seminario.
"Fue bastante loco. Por suerte no lo se conté a todo el auditorio. Después leí el e-mail hasta el final y no lo podía comunicar hasta que no lo hicieran ellos. Hubiera armado un lío bárbaro", dice, aún con una sonrisa en su cara.
"Esto significa que trabajamos bien y que saben lo que estamos haciendo. Que somos de esas compañías que desarrollan soluciones instalables, innovadoras y que cumplen con las continuas modificaciones de los términos y condiciones que te impone Facebook", explica el CEO de Altodot, que tiene clientes en Chile, Perú, Colombia, México, Estados Unidos y que está empezando a instalarse en Brasil.
"Hoy nuestro foco está puesto en el marketing. Entendemos muy bien cómo funciona Facebook como medio de comunicación social para promover distintas acciones, comunicar un mensaje o vender un par de zapatillas", cuenta Chalbaud, y cierra: "En ese sentido, estamos orgullosos de que el dueño del circo nos recomiende".

InfoQ: hablando de desarrollo basado en patrones

InfoQ, a través de una entrevista de Dave West a Lee Ackerman y Celso Gonzalez, autores de "Patterns-Based Engineering: Successfully Delivering Solutions via Patterns", trae a foco el uso de patrones. La breve promoción del libro recuerda algunos de los valores más importantes de su uso. De allí quisiera destacar dos elementos comentados:
1, La importancia y posibilidad de reuso de patrones:
InfoQ:  The very first benefit of PBE [Pattern based engineering] in chapter 17 is increased productivity via reuse.  Reuse was the great promise of object-oriented development.  It did not pan out.  Why will pattern-based reuse have a better chance of succeeding?
We struggle with the idea that reuse has not panned out. We’d agree that the idea of reuse was oversold and oversimplified. However, we need to keep in mind the significant amount of reuse that has been achieved by using OO concepts and related ideas (e.g. frameworks, libraries, components, etc).
Patterns not only help us in sharing and consuming best practices, but also take us forward in the next step of coarse-grained solutions. And in taking that next step forward, it’s not that the components are larger in size, but that they provide points of variability that allows us to customize the pattern as we apply it to our situation.
With that in mind, one big difference between patterns and OO reuse is that patterns are reuse of design in contrast to reuse of code. Due to its higher level of abstraction, patterns are often more reusable than code.
And last, but not least, we also need to focus on pattern consumption. Today there are already thousands of patterns available for reuse. However, we struggle to find the right pattern at the moment of need. As we improve our ability to find patterns (according to requirements, relationships, workflow) we will see a subsequent increase in reuse and ROI.
2, Patrones y desarrollo basado en modelos (MDD):
InfoQ:  PBE is an example of Model-driven development (MDD) mostly as a result of using the engineering metaphor as a philosophical base.  Throughout the book you mention the possibility of automating PBE and the use of patterns.  To what extent do you share the core intent of MDD - create a formal model and mathematically transform that model into correct and executing code?
We’d actually start with a simpler definition of MDD, whereby we focus on using model as abstractions – hiding details that are not necessary at a particular moment in time. Automation can be a boon to productivity – but is not a necessity in performing MDD. We could use pen and paper, white-boards, or simple software applications that allow us to model.
When working with PBE we encourage and support the use of both pattern specifications and pattern implementations. Pattern specifications are the formal, written documentation such as what we find in GoF book and many others. A pattern implementation is the codification and automation of a pattern in tooling. There are a number of ways that this can be accomplished and many tools that support the creation of such automations.
Tooling to create and work with pattern implementations is continuing to mature. To date, the most impressive results that we have seen have been through the use of Java Emitter Templates (as found in Eclipse). The tool simplifies the effort that goes into analyzing exemplars – those reference solutions that will serve as the basis for the automation. In analyzing the exemplar, JET simplifies the pattern creation process and makes this capability something that anyone can learn to use. Ease of use, and speed of delivery are some of the important aspects of driving adoption of pattern implementations.
We’d also caution against unreasonable expectations of having a bit of modeling, a few patterns, and then being able to generate 100% of a solution. Such thinking at this point will lead to issues in over investment in pattern development and modeling. Better to look to build out a pattern repository, use compound patterns and recognize a role for seeding the code and incorporating user regions where code can be augmented after generation.
Para quienes usan Plex, como es el caso mío y de parte de los lectores aquí, el uso de patrones es uno de los puntos más fuertes en la obtención de productividad. Plex es una demostración cabal de que el desarrollo de patrones de variado alcance es posible y altamente productivo. Varias de las empresas asociadas a su uso han basado su crecimiento en la construcción de un grupo de patrones de valor crítico en algún área tecnológica. Más aún, se podría decir que Plex difícilmente hubiera sobrevivido sin su capacidad de extensión a través de patrones reusables. (Y la apertura de su Model API, que merece trato aparte).
En estos días, la Wiki de Plex ha extendido su entrada sobre patrones, publicando algunas de las soluciones existentes. No se publican allí, pero merecen artículos separados, dos de los sistemas de patrones que particularmente lo han potenciado en los últimos cinco o seis años: los patrones para desarrollo web de Websydian y Webclient. Doy fe de que funcionan.

jueves, mayo 19, 2011

Dimensionando la computación en la nube...

Brian Gracely en Dzone abre interrogantes y perspectivas acerca del impacto de lo que cloud computing tendrá en el mundo tecnológico presente y futuro. Vale la pena seguirlo:
(...)  let's start looking at what changes for various people in the Cloud Computing value-chain:
CIO: Your job has probably never been more complicated than it is today. Your vendors/partners are engaging in coopetition like never before. The technology is changing incredibly fast and you're struggling to keep/grow internal talent. Plus your internal users are getting much smarter and may be looking for ways to avoid your services. External services are now available with completely new consumption models, but they also bring a new forms of risk that aren't very well understood yet. And all your colleagues are talking about "cloud projects" and you may not know exactly where to start, or expand. And the start-ups in your industry don't have the existing IT legacy to deal with, so they are approaching the use of IT in strategic ways that you've probably never dealt with before.
IT Operations: If you're like most IT organizations, you're spending 70-80% of your time and budget keeping the internal systems operational. That doesn't leave much time to deal with the pace of change coming from all these cloud offerings, but the CIO is still pushing you for it. So how do you find the funding? How do you find the right skills (internally, retrain, cross-train, externally)? If you're considering a Private Cloud, this might be worth a listen. The key is to start looking at the best practices of the Public Cloud operators (herehere, here and here) and see what best-practices you can bring in-house (where it makes sense) and where external services might make more sense.
Server, Storage, Network teams: In the past, your world was challenging enough keeping up with all the technology, protocols, architectures, etc. Now the divisions between your groups are breaking down as virtualization technologies provide integration within platforms. Or maybe the emerging cloud stacks are abstracting functionality out of your hardware and moving it to application software. Some people look at this as an opportunity to broaden your skills and take a broader role as an "infrastructure specialist", while others believe that proliferating IT generalists is a bad idea.
Application Developers: Open-Source frameworks; the momentum of DevOps; infrastructure you can obtain with a credit-card and avoid IT bottlenecks. On the surface your world is looking pretty good because many of the barriers from your previous life (software licenses, IT operations, procurement delays, etc.) seem to be coming down. But not everything may be rosy. You've got to potentially design for external/public cloud infrastructure that may not be well understood. And maybe you'll design your applications to be portable between clouds? But you also have to consider new ways to audit applications and data, and potentially new ways to secure it and make applications highly-available.
Systems Integrators: Being able to integrate these complex systems, on-premise or off-premise, may become an even more valuable skill moving forward, especially if you're able to harness some of the open-source projects that allow you to add value. But is that currently your strength? Were you previously focused on solutions based on commercial vendor offerings? Are those vendors still using you as a primary channel, or are they looking to take customer business direct through their own clouds (here, here, here, or here)? Or should you be looking to partner with some of the existing Cloud providers for technology scale, and focus on localized relationships with customers?
Cloud Providers: We've already seen this space consolidating and changing quickly (Terremark/Verizon,  CenturyLink/Savvis, TimeWarner/Navisite) as well as outages that have customers questioning if they will deploy to public clouds. But they are moving quickly to roll-out new services and address demands from Enterprise and Government customers. Some are even pushing frameworks that could open up new innovation or undermine operational advantages. Each of them will need to decide if they want to provide commodity services, differentiated services, and which *aaS frameworks they need to support to drive customer demand.
Application "Stores" and Cloud Ecosystems: We're all familiar with App Stores like iTunes or Android, but will independent Application Stores begin to emerge for applications built on open frameworks such as Cloud Foundry? Will we see greater expansion of the services available from existing Cloud providers such as Salesforce.com, Google Apps or others to entice customers not to make themselves overly portable?
IT Vendors: Software stacks and open-source projects are knocking at your door, threatening to disrupt the foundation of businesses built on hardware platforms and commercial software offerings. Will these macro-level trends simply create downward pressure on margins vs. open-source alternatives, or does this spur a new wave of innovation that interacts with these new models in ways to balance the flexibility with stability and investment? Do your customers want solutions based on these newer models, which also changes their internal skills and buying models? Should you hedge your bets by setting up Cloud services directly, or do you continue your existing go-to-market approaches? How do you manage coopetition in partnerships where every vendor appears to be moving into 2 or more adjacent technology markets than they were in a few years ago?
As you can see, the potential for significant change in the overall value chain between technology providers, technology delivery mechanisms and technology consumers is extremely high. It has the potential to significantly change existing business models, but it's also highly dependent on a new set of skills emerging for operators, architectures and people in between.
But out of confusion comes opportunity if you're open to change and new ideas. We're just at the beginning of a significant change in our industry and how it effects business on many levels. How companies (vendors, providers, integrators and business consumers) navigate these changes and confusion will determine the winners and losers of the next 5-to-10-to-20 years in the IT space.

sábado, mayo 14, 2011

A propósito de liderazgos, Twitter

Alejandro Laso, en El Confidencial, enfoca el futuro de Twitter, viéndolo como un interrogante sobre su gerenciamiento, con dificultades todavía para hacer la empresa rentable. Dadas las condiciones presentes de guerra desatada por posiciones en los negocios en la web, Twitter está bajo mira...:

Puede presumir de tener 200 millones de usuarios que suben diariamente 50 millones de tuits. En el ‘boom’ de las redes sociales, Twitter ha logrado posicionarse como una de las más populares, aunque sus finanzas dejan mucho que desear. La plataforma de microblogging sólo generó unos ingresos de 30 millones de dólares durante 2010 por publicidad, una cantidad irrisoria al lado de los 1.275 millones que facturó Facebook -600 millones de usuarios- y los 5.737 millones de Google.
Y es que los comienzos de la red social de microblogging ya fueron complejos. La idea surgió a principios de la pasada década con otro nombre y otros protagonistas, pero poco más tarde fracasó porque Internet no tenía la suficiente madurez como para entender un concepto tan innovador. Tuvo que ser en 2006 cuando una pequeña start-up de Silicon Valley fundada por Jack Dorsey llamada ‘twttr’ –luego rebautizada como Twitter- rescató esas ideas originales, las mejoró hasta revolucionar la forma de comunicación con mensajes de 140 caracteres.
Su popularización vino de la mano de famosos, periodistas y profesionales influyentes que quisieron utilizar esta red para comunicarse. Gracias a ellos, la red de microblogging ha conseguido popularizarse y sumar millones de adeptos los últimos meses, aunque la compañía todavía se enfrenta al gran dilema de no saber cómo rentabilizarlos.
El problema es que su modelo de negocio es muy innovador y complejo al mismo tiempo. Para empezar Twitter no tiene nada que ver con Facebook. Es un sistema más complejo que además se ha convertido en una de las empresas pionera en orientar su modelo de negocio a los dispositivos móviles. Precisamente, esta decisión empresarial se ha convertido en la clave de su éxito. Gracias al ‘boom’ de los smartphones, la inmediatez de sus mensajes se ha convertido en un arma con la que Facebook todavía no puede competir. Twitter se ha abierto camino en un terreno virgen y en poco tiempo se ha convertido en una agencia de noticias, potenciando el periodismo social, y que ha favorecido que se produzcan hechos tan relevantes como las revueltas en el mundo árabe.
Sin embargo, la ventaja del uso en los ‘smartphones’ también se ha convertido en un ancla para las finanzas de Twitter. La publicidad a través de los teléfonos móviles todavía está en pañales y aún debe pasar un lustro para que las compañías realmente puedan encontrar la fórmula mágica para vender bien en este soporte. Entre el caos del universo de las ‘apps’, los usuarios siguen prefiriendo acceder a través de navegadores, donde la publicidad todavía no ha conseguido adaptarse. Quizá por eso la compañía ha hecho una oferta por Tweetdeck -una aplicación online orientada a Twitter-, con la que la pretende vender más anuncios en los dispositivos tradicionales.
Y por si el sistema de anuncios en móviles aún no está nada logrado, otras fuentes apuntan a que el verdadero problema de Twitter radica en su gestión. La revista Fortune asegura que la red social tiene problemas de liderazgo y se apoya en declaraciones de uno de sus empleados que asegura que el cargo de consejero delegado “parece una puerta giratoria” de la cantidad de personas que han pasado por ahí. El resultado es que en poco más de dos años, Twitter ha cambiado tres veces de CEO, un dato que haría que se le erizasen los pelos a cualquier dueño de una multinacional.
Hoy por hoy, el rumbo de sus 500 empleados todavía está pendiente de definirse. A la red de microblogging se le acaba el tiempo. Su número de usuarios a nivel mundial se ha disparado, pero algunas fuentes, como la consultora ComScore, aseguran que en Estados Unidos el crecimiento se está frenando. Mientras tanto la competencia sigue creciendo de forma sólida. La compra de Skype por parte de Microsoft y las futuras salidas a bolsa de LinkedIn y Facebook, se han convertido en una verdadera cuenta atrás para que Twitter encuentre su rumbo.

Un liderazgo cuestionado

Ben Brooks, un broker americano, publica transversalmente un comentario que va de Skype a la conducción de Steve Ballmer en Microsoft, demoledor para la valía de Ballmer como jefe de la empresa. ¿Será Ben Brooks el mejor juez del caso? Probablemente no, pero sus comentarios son en este caso bien encaminados. Sería una verdadera sorpresa que las cosas no se encaminaran como él lo imagina.
Brooks recapitula varios casos de errores de estrategia:
1. Skype, lo último

Ballmer’s acquisition of Skype for $8.5 billion dollars is not only a gross overpay, but a complete waste of money for Microsoft. Ballmer has yet to lay out a clear reason why Microsoft wanted Skype. He has only stated the obvious: integration in Microsoft products — which could have been done in a partnership instead of an acquisition. In fact, the acquisition by most accounts sounded more like a move by Ballmer to buy something that others 2 may have wanted to own — just for the sake of others not owning it.
Beyond that is the fact that Microsoft has 89,000 employees — are you telling me that the company that put a computer in every home couldn’t create a Skype clone?
Not only could Skype have been made in-house, Skype should have been made in-house by Microsoft.
Even if it would have cost $1 billion dollars Microsoft would have been better off creating Skype in-house. Does anybody really think Apple spent anything close to $1 billion dollars building FaceTime?
This entire acquisition feels like a desperate move, made by a desperate man. As a shareholder I hope that the regulators stop the acquisition, but I highly doubt that will happen.
2. El Iphone:

Ballmer is now famous for saying:
There’s no chance that the iPhone is going to get any significant market share. No chance. It’s a $500 subsidized item. They may make a lot of money. But if you actually take a look at the 1.3 billion phones that get sold, I’d prefer to have our software in 60% or 70% or 80% of them, than I would to have 2% or 3%, which is what Apple might get.
We can get into talking tough and all that, but Ballmer — as the face of Microsoft — should have never made such a short sighted comment about any product released by a serious competitor like Apple. What is less quoted is the comments he made immediately following the above:
In the case of music, Apple got out early. They were the first to really recognize that you couldn’t just think about the device and all the pieces separately. Bravo. Credit that to Steve (Jobs) and Apple. They did a nice job.
But it’s not like we’re at the end of the line of innovation that’s going to come in the way people listen to music, watch videos, etc. I’ll bet our ads will be less edgy. But my 85-year-old uncle probably will never own an iPod, and I hope we’ll get him to own a Zune.
What is so shocking about this is that Ballmer recognizes that first to market is important — yet it took until 2010 to launch Windows Phone 7, three years after the iPhone.
Where is the “innovation” that Ballmer mentions in the music space — the Zune is effectively dead now and I bet his Uncle does have an iPod at this point. 3
This is the epitome of short sighted behavior by Ballmer and should have made the board and shareholders incredibly un-easy at the time and especially now. Instead it bolstered his support as a man who was going to squash the evil Apple bug.
Short sighted behavior like this can and should be forgiven if the person later recognizes his errors and immediately moves to correct it, yet again though it took three years to get a serious iPhone competitor out of Microsoft. They never created a music/video player that gained traction after the Zune faded into Wikipedia archives. That cannot and should not be forgiven.
3. Windows phone 7:

As I mentioned above Windows Phone 7 was seriously late to the party. Three years late means that most consumers Microsoft was targeting were on at least their second iPhone before Microsoft started to slowly ship Windows Phone 7. Add to that the basic lack of now common place smart phone features and you begin to see that Microsoft shipped a product that was competitive with the software from three years ago.
Windows Phone 7 may stand to be a long term success for Microsoft, but I doubt it. It is a product that in every way shows why Ballmer should not be in charge any longer. It was late and short sighted about the current market needs. In 2006 Windows Phone 7 would have blown away every technophile, this one included, in 2010 it is interesting and underwhelming.
I can assure you there are no crowds forming to get one.
It is the Zune all over again — a solid offering made far too late to make a substantial difference.
Brooks todavía continúa con otros casos representativos del cambio en el manejo de la empresa. Como corolario (y con el derecho que le otorga ser accionista -seguramente minoritario), propone el desplazamiento de Ballmer, y un cambio drástico de liderazgo:

Microsoft should be searching for a new CEO right now. The Skype acquisition damage can still be mitigated if the proper people are put in place to immediately leverage the Skype brand. A new CEO should be:
  1. Passionate about technology: don’t you get the feeling that Ballmer doesn’t really care about the products that Microsoft makes, in the same way that Steve Jobs cares about how employee shuttle buses look and how and where color is applied? Any new CEO should love technology and that will begin to show at Microsoft like it did when Gates was still at the helm if the right person is hired. Ballmer seems to care more about being the biggest thing on the market instead of the products his company creates.
  2. Forward thinking: Ballmer has shown his short sightedness time and time again, let’s get an executive with some vision. It is time that Microsoft starts creating new markets instead of trying to understand markets that their competitors are creating.
  3. An outsider: this is going to be the hardest thing for Microsoft to realize, but they need to get some fresh eyes on the problem. At the very least it should be someone who has not spent more than the last five years with the company. Microsoft needs a fresh outside perspective. An insider will just keep following the GPS coordinates that have been set forth by Ballmer.

Una vez más, el tamaño de la corporación, y el peso consiguiente de su burocracia, parecen convertir a una empresa, Microsoft en este caso, en otro dinosaurio, apartado de su mejor época.

viernes, mayo 13, 2011

Una caja de herramientas para trabajar con Plex

Aviso previo: Esta nota ya fue publicada el 12 de mayo. Pero un fallo técnico de Blogger hizo que por ahora se haya perdido.Es probable que en unos días el artículo se restablezca. En prevención de que esto no suceda, se vuelve a publicar. Si Blogger lo repone, éste se borrará.

George Jeffcock anuncia hoy en el foro de Plex en CA una excelente caja de herramientas para trabajar con sus modelos, explotando el Model Api. Una demostración cabal de que Plex está entregando a través de su api una vía abierta para extenderlo libremente.
De la descripción en la Wiki:

If as a CA Plex developer you have found the following tasks a little difficult to achieve then it is hoped these tools can help:


· You can’t find a particular source code / message in your models so you end up creating the source code / message again, only to find the object weeks latter scoped to a function buried under 4 levels of scoping. You now have two or many… versions to maintain. See Search Large Properties


· You want to alter a field’s STATE but how can you tell which action diagrams could be impacted by a change? See Export Large Properties and Create List from Exported Large Properties


· A specific line of action diagram logic is wrong but is used across your model(s) but not inherited, how do you track down the changes? See Export Large Properties and Create List from Exported Large Properties


· You want to use text based change management tool to track changes. See Export Large Properties


· Upgrading and or simply been a while since you rebuilt your applications DLL (WINC) and or PGM (AS400) but don't trust your models and would rather build all the programs found in your installation directories/librarys then See Implemented Programs


· Model house keeping by comparing what DLL (WINC) and or PGM (AS400) are in you installation directories/libraries compared with what your model is configured to. You want to see what implementation names do not exist in your model or model objects that are set to implement No but are still in your installation directories/libraries.See Implemented Programs


· Want to quickly compare an action diagram between Versions/Levels. See Display Large Property


· Driven mad trying to remove local modifications from a panel while trying to understand a particular panel elements runtime behavior. See Display Large Property to view a panels large property.
Nota importante: Actualizando el estado de Stella Tools, no sólo la herramienta al día de hoy ha mejorado. Además, George ha abierto un artículo en la Wiki de Plex que puede constituír un buen punto de entrada para quienes quieran usarla.

domingo, mayo 08, 2011

Enfocándose en lo viejo...

Esto se ha comentado en el último tiempo muchas veces (incluso aquí), pero, qué bien que lo cuenta Adam Hartung. Adam, en Forbes, comenta la diferencia que existe entre las buenas cifras de ganancias de Apple, y las "buenas cifras" de Microsoft.
(...) Even though Microsoft earnings were up, it wasn’t because they are selling what customers really want to buy. Microsoft has caught the “Wal-Mart Disease” – constantly trying to do more of what it always did, hoping it can regain old results – even as the market keeps shifting.  In stalled companies, executives cut costs in sales, marketing, new product development and outsource like crazy in order to prop up earnings.  They can outsource many functions.  And they go the resorvoir of accounting rules to restate depreciation and expenses, delaying expenses while working to accelerate revenue recognition.  While Microsoft had higher earnings than last quarter, it wasn’t because customers were excited about their products!

When companies are growing, investors likes management to pump earnings (and cash) back into growth opportunities.  Investors benefit because their value compounds. In a stalled company investors would be better off if the company paid out all their earnings in dividends – so investors could invest in the growth markets.
But, of course, stalled companies like Microsoft and Research in Motion, don’t do that.  Because they spend their cash trying to defend the old business.  Trying to fight off the market shift.  At Microsoft, money is poured into trying to protect the PC business, even as the trend to new solutions is obvious. Microsoft spent 8 times as much on R&D in 2009 as Apple – in both dollars and as a percent of revenue – and all investors received were updates to the old operating system and office automation products.  That nearly $9B expense generated almost no incremental demand.  While revenue is stalling, costs are rising.
At Gurufocus.com the argument is made “Microsoft Q3 2011: Priced for Failure“.  Author Alex Morris contends that because Microsoft is unlikely to fail this year, it is underpriced.  Actually, all we need to know is that Microsoft is unlikely to grow.  Its cost to defend the old business is too high in the face of market shifts, and the money being spent to defend Microsoft will not go to investors – will not yield a positive rate of return.
(...) While much has been made of the ballyhooed relationship between Nokia and Microsoft to help the latter enter the smartphone and tablet businesses, it is far too late.  Customer solutions are now in the market, and the early leaders – Apple and Google Android – are far, far in front.  The costs to “catch up” – like in on-line – are impossibly huge.  Especially since both Apple and Google are going to keep advancing their solutions and raising the competitive challenge.  What we’ll see are more huge losses, bleeding out the remaining cash from Microsoft as its “core” PC business continues declining.
(...)
Many analysts will examine a company’s earnings and make the case for a “value play” after growth slows.  That’s a mythical bet.  When a leader misses a market shift, by investing too long trying to defend its historical business, the late-stage earnings often contain a goodly measure of “adjustments” and other machinations.  To the extent earnings do exist, they are wasted away in defensive efforts to pretend the market shift will not make the company obsolete.  Late investments to catch the market shift cost far too much, and are impossibly late to catch the leading new market players.  The company is well on its way to failure, even if on the surface it looks reasonably healthy.  It’s a sucker’s bet to buy these stocks.
Rarely do we see such a stark example as the shift Apple has created, and the defend & extend management that has completely obsessed Microsoft in the wake of this shift.  But it has happened several times.  Small printing press manufacturers went bankrupt as customers shifted to xerography, and Xerox waned as customers shifted on to desktop publishing.  Kodak declined as customers moved to film-less digital photography.  CALMA and DEC disappeared as CAD/CAM customers shifted to PC-based Autocad.  Woolworths was crushed by discount retailers like KMart and WalMart.  B.Dalton and other booksellers disappeared in the market shift to Amazon.com.  And even mighty GM faltered and went bankrupt after decades of defend behavior, as customers shifted to different products from new competitors.  Buying into any of the losers as a “value play” meant you lost money.
Not all earnings are equal.  A dollar of earnings in a growth company is worth a multiple.  Earnings in a declining company are, well, often worthless.  Those who see this early get out while they can – before the company collapses.

Parecería ser que hemos alcanzado el punto en que Microsoft siga el camino de otros grandes actores de la industria de la informática: siguen sin observarse signos claros de cambio en su gerenciamiento, y probablemente otros ocuparán su puesto de liderazgo.