Coté donnée, le Big Data a occupé sans surprise le haut de l’agenda en matière de nouveaux investissements. L’architecture centrée donnée a commencé à être adoptée par les entreprises et s’est également étendue, au-delà des Big Data aux All Data, aux données transactionnelles et référentielles historiques de l’entreprise. Cela a conduit à challenger les pratiques actuelles sur l’ensemble du cycle de vie des données notamment en termes de modélisation et d’implémentation, en écho à l’adoption significatives des bases de données non-relationnelles. Coté orchestration, la perspective de devoir supporter des processus omni-canaux a fait prendre conscience aux entreprises de la nécessité de pouvoir adapter l’exécution de certains de leur processus clients selon le contexte d’usage et d’être en mesure de déclencher des processus ad-hoc pour palier à tous comportements imprévus, licites ou illicites. Cette prise de conscience a réveillé l’intérêt des entreprises pour les systèmes de gestion des processus présentés depuis des années encouragé par la démocratisation de technologies annoncées comme plus flexibles et plus intelligentes (ie. Advanced Case Management , iBPM).
L’année 2016 sera marquée par un rééquilibrage des priorités SI. Si les investissements dans le Big Data se poursuivront, les investissements se rééquilibreront autour du sujet intégration au cœur de la bi-modalité nécessaire du SI, entre le SI stable et hautement industrialisé et le SI véloce et hautement adaptatif du nouveau monde digital. Pour gérer ce SI à deux vitesses, l’architecture du SI devra favoriser le couplage faible entre ses composants : les composants du SI traditionnel, à longue durée de vie devront être exposés ou détourés via des services ne portant que les invariants métiers et totalement agnostiques du contexte d’usage pour servir les usages omni-canaux alors que les composants du SI agile à haute-vitesse devront embrasser l’approche micro-services pour limiter leur empreinte fonctionnelle et permettre leur développement sur la technologie du moment la plus appropriée. L’intégration entre l’ensemble de ces composants devra privilégier le mode évènement (Event Driven Architecture), qui est à la fois le modèle d’intégration le plus flexible et le plus pérenne et le cœur de l’orchestration des processus métiers.
Sur le plan technologique, l’année 2016 s’annonce compliquée pour les décideurs SI avec une offre surabondante dans laquelle il est de plus en plus difficile d’y voir claire. Les entreprises devront chercher le meilleur mixte-technologique par rapport à leur priorités. Pour cela, elles n’auront d’autres choix que d’évaluer par elles-mêmes tant leur maturité technique que les cas d’usages qu’elles sont réellement capables de motoriser. Vérifier l’apport réel pour l’entreprise via des preuves-de-concept à valeur Business et IT, incluant les dimensions économiques, conduite du changement et gouvernance tant métier que DSI restera plus vrai que jamais.
Pour articuler ce SI à deux vitesses, les entreprises devront porter leurs efforts d’une part autour des technologies d’hybridation de leur SI pour en faire un System of Systems bi-modal dynamique et performant et d’autres part autour des technologies de Big Data Analytics leur permettant d’extraire de la valeur sans latence métier de toutes les données à leur disposition et au plus près de leur occurrence lorsque les usages le nécessitent.
Du System au System of Systems :
– L’Hybrid Cloud Architecture, pas qu’une question de technologie
Face à la complexité digitale, les entreprises devront de plus en plus se tourner vers un système d’information fait d’un assemblage de services internes et externes. Faire que cet assemblage créé plus de valeur que la somme des valeurs de chacun des services qui le compose va devenir une préoccupation majeure. Mais, construire un système hybride capable de tirer la quintessence des ressources internes (e.g Legacies) et externes (e.g Cloud Services, Open Data) et gérer le SI à deux vitesses ne trouvera pas sa réponse uniquement dans la technologie. Cela passera d’abord par la définition de nouveaux modèles d’intégration. En particulier pour accéder aux différents réservoirs de données existants, par nature hétérogènes et distribués, les architectes SI devront, faute de pouvoir transformer tout le SI, combiner des modèles laissant les données là où elles naissent avec des modèles cherchant à les centraliser de façon native ou dupliquée. Des modèles qui pourront sur le volet intégration être déjà en partie déployés avec les socles d’intégration existants dans l’entreprise (eg. MOM, ESB). De nouveaux modèles de sécurité devront également être mis en œuvre. Il s’agira moins de sécuriser l’accès aux applications que l’accès aux données.
– La data virtualization de façon tactique
L’effort au long court à consentir pour acquérir, maîtriser et industrialiser l’ensemble des technologies d’intégration et de synchronisation nécessaires pour assurer la cohérence et la disponibilité des données en tout point du SI pourraient conduire les entreprises à se tourner, pour certains cas, d’un usage d’analyse time-to-market rapide vers des technologies alternatives de Data Virtualization et de Data Federation. Des technologies dont l’attrait repose sur un modèle visant à constituer une couche d’abstraction des données permettant, d’une part, d’offrir un point d’accès unique à l’ensemble des données de l’entreprise sans avoir à les déplacer et d’autre part délivrant un ensemble de services intégrés sur les données ainsi virtualisées. Dotées d’algorithmes intelligents évaluant notamment le meilleur ratio coût/performance d’une opération sur un ensemble de données et de moteurs d’exécution haute performance, ces technologies promettent de définir le meilleur schéma d’exécution d’une opération. L’algorithme détermine ainsi dynamiquement à l’exécution et ce, sans avoir à déplacer/réconcilier préalablement les données, la meilleure stratégie d’exécution de l’opération selon différents critères : la nature de l’opération (jointure, agrégation, enrichissement, fusion, dédoublonnage…), la localisation des données (base de données relationnelles et non relationnelles, lac de données…), les capacités des technologies sous-jacentes portant ces données (sgbdr, base nosql, hadoop…) voire la véracité et la pertinence des données du patrimoine informationnel à disposition (analyse sémantique). Il est clair que si les performances sont raisonnablement au rendez-vous et que les cas d’usage ne sont pas trop limités notamment pour des scénarii de jointure complexes, ces technologies « click & play » pourraient bien être le blockbuster tactique de l’année auprès des directions métiers. Mais, pas sûr cependant que ces technologies puissent devenir un socle d’architecture stratégique.
Du Big Data au All Data
Etre capable d’intégrer l’ensemble des données et les rendre disponibles aux différents usages sera inutile sans capacité à en tirer de la valeur en juste à temps. Une valeur qui ne découlera pas uniquement de l’analyse des Big Data (e.g Tweets, Likes, Video, GPS Data) mais de l’ensemble des données de l’entreprise et quel que soit leur lieu de résidence SI. Pour traiter de façon efficace ces All Data, les entreprises n’auront pas d’autres choix que d’introduire, au-delà des technologies de fédération de ces données, des technologies capables de leur simplifier l’extraction de valeur de plus en plus au fil de l’eau (Data Stream Analytics).
L’API-Culture, facteur d’outsourcing
Avec l’APIsation de son SI et l’évolution des modèles de sécurité (protection associée aux données et qui suit les données), la DSI pourra revoir sa stratégie pour les socles structurellement les moins pérennes comme c’est le cas pour les User Experience Frameworks en mouvement perpétuel. Dans un marché aussi atomisé que celui-ci, la DSI pourra renoncer à l’idée de se doter d’un socle unique commun et durable (une quête perdue d’avance) et s’orienter vers un outsourcing complet de la réalisation de ces frontaux digitaux laissant à un partenaire spécialisé la responsabilité de lui concevoir, développer et déployer dans le Cloud Hybride l’expérience utilisateur la plus engageante en se contentant de lui mettre à disposition uniquement des APIs sécurisés.
En 2016, la DSI devra donc veiller à se ré-orienter autour de la gestion, de la cohabition et de l’intégration d’un SI inévitablement à deux vitesses. Néanmoins, elle ne pourra le faire complètement sans intégrer aussi le Machine Intelligence et l’Event Processing. Le Machine Intelligence pour suppléer notre incapacité à interpréter les All Data tant en termes de pertinence, de vitesse que de coût. L’Event Processing pour assurer le liant entre l’orchestration des processus métier (interpréter, corréler et filtrer en amont les évènements), l’Internet-of-Everything et l’Information-of-Everything. Des technologies à observer impérativement en 2016 car promises à devenir des fondations majeures et centrales du système d’information de l’entreprise 3.0.
À propos de Sentelis
Sentelis est un cabinet de conseil en stratégie, gouvernance et architecture de systèmes d’information. Créée en avril 2011, Sentelis accompagne les décideurs SI dans leur transition numérique vers l'entreprise 3.0. Ses solutions différenciées apportent une réponse concrète à l'équation digitale que doit résoudre la DSI pour conjuguer innovation et industrialisation, pour intégrer les nouvelles réalités telles que le cloud computing, le mobile computing, l’omni-channel experience, les social medias, l’Internet-of-Things, le digital working, le shadow IT ou encore le Big Data. Elles répondent aux besoins d'efficience (Time-to-market) et d'efficacité (Cost-to-income) du SI. Elles sont imaginées et déployées au travers d'un cadre méthodologique, architectural et de gouvernance innovant et unique sur le marché, dont Sentelis est l'éditeur : smartfoundations™.
Sentelis smartfoundations™ couvre l'ensemble du cycle de vie des fondations du SI Digital, qu'ils s'agissent de composants SI ou de pratiques DSI transverses. Des fondations industrielles, pérennes et incontournables.
www.sentelis.com
L’année 2016 sera marquée par un rééquilibrage des priorités SI. Si les investissements dans le Big Data se poursuivront, les investissements se rééquilibreront autour du sujet intégration au cœur de la bi-modalité nécessaire du SI, entre le SI stable et hautement industrialisé et le SI véloce et hautement adaptatif du nouveau monde digital. Pour gérer ce SI à deux vitesses, l’architecture du SI devra favoriser le couplage faible entre ses composants : les composants du SI traditionnel, à longue durée de vie devront être exposés ou détourés via des services ne portant que les invariants métiers et totalement agnostiques du contexte d’usage pour servir les usages omni-canaux alors que les composants du SI agile à haute-vitesse devront embrasser l’approche micro-services pour limiter leur empreinte fonctionnelle et permettre leur développement sur la technologie du moment la plus appropriée. L’intégration entre l’ensemble de ces composants devra privilégier le mode évènement (Event Driven Architecture), qui est à la fois le modèle d’intégration le plus flexible et le plus pérenne et le cœur de l’orchestration des processus métiers.
Sur le plan technologique, l’année 2016 s’annonce compliquée pour les décideurs SI avec une offre surabondante dans laquelle il est de plus en plus difficile d’y voir claire. Les entreprises devront chercher le meilleur mixte-technologique par rapport à leur priorités. Pour cela, elles n’auront d’autres choix que d’évaluer par elles-mêmes tant leur maturité technique que les cas d’usages qu’elles sont réellement capables de motoriser. Vérifier l’apport réel pour l’entreprise via des preuves-de-concept à valeur Business et IT, incluant les dimensions économiques, conduite du changement et gouvernance tant métier que DSI restera plus vrai que jamais.
Pour articuler ce SI à deux vitesses, les entreprises devront porter leurs efforts d’une part autour des technologies d’hybridation de leur SI pour en faire un System of Systems bi-modal dynamique et performant et d’autres part autour des technologies de Big Data Analytics leur permettant d’extraire de la valeur sans latence métier de toutes les données à leur disposition et au plus près de leur occurrence lorsque les usages le nécessitent.
Du System au System of Systems :
– L’Hybrid Cloud Architecture, pas qu’une question de technologie
Face à la complexité digitale, les entreprises devront de plus en plus se tourner vers un système d’information fait d’un assemblage de services internes et externes. Faire que cet assemblage créé plus de valeur que la somme des valeurs de chacun des services qui le compose va devenir une préoccupation majeure. Mais, construire un système hybride capable de tirer la quintessence des ressources internes (e.g Legacies) et externes (e.g Cloud Services, Open Data) et gérer le SI à deux vitesses ne trouvera pas sa réponse uniquement dans la technologie. Cela passera d’abord par la définition de nouveaux modèles d’intégration. En particulier pour accéder aux différents réservoirs de données existants, par nature hétérogènes et distribués, les architectes SI devront, faute de pouvoir transformer tout le SI, combiner des modèles laissant les données là où elles naissent avec des modèles cherchant à les centraliser de façon native ou dupliquée. Des modèles qui pourront sur le volet intégration être déjà en partie déployés avec les socles d’intégration existants dans l’entreprise (eg. MOM, ESB). De nouveaux modèles de sécurité devront également être mis en œuvre. Il s’agira moins de sécuriser l’accès aux applications que l’accès aux données.
– La data virtualization de façon tactique
L’effort au long court à consentir pour acquérir, maîtriser et industrialiser l’ensemble des technologies d’intégration et de synchronisation nécessaires pour assurer la cohérence et la disponibilité des données en tout point du SI pourraient conduire les entreprises à se tourner, pour certains cas, d’un usage d’analyse time-to-market rapide vers des technologies alternatives de Data Virtualization et de Data Federation. Des technologies dont l’attrait repose sur un modèle visant à constituer une couche d’abstraction des données permettant, d’une part, d’offrir un point d’accès unique à l’ensemble des données de l’entreprise sans avoir à les déplacer et d’autre part délivrant un ensemble de services intégrés sur les données ainsi virtualisées. Dotées d’algorithmes intelligents évaluant notamment le meilleur ratio coût/performance d’une opération sur un ensemble de données et de moteurs d’exécution haute performance, ces technologies promettent de définir le meilleur schéma d’exécution d’une opération. L’algorithme détermine ainsi dynamiquement à l’exécution et ce, sans avoir à déplacer/réconcilier préalablement les données, la meilleure stratégie d’exécution de l’opération selon différents critères : la nature de l’opération (jointure, agrégation, enrichissement, fusion, dédoublonnage…), la localisation des données (base de données relationnelles et non relationnelles, lac de données…), les capacités des technologies sous-jacentes portant ces données (sgbdr, base nosql, hadoop…) voire la véracité et la pertinence des données du patrimoine informationnel à disposition (analyse sémantique). Il est clair que si les performances sont raisonnablement au rendez-vous et que les cas d’usage ne sont pas trop limités notamment pour des scénarii de jointure complexes, ces technologies « click & play » pourraient bien être le blockbuster tactique de l’année auprès des directions métiers. Mais, pas sûr cependant que ces technologies puissent devenir un socle d’architecture stratégique.
Du Big Data au All Data
Etre capable d’intégrer l’ensemble des données et les rendre disponibles aux différents usages sera inutile sans capacité à en tirer de la valeur en juste à temps. Une valeur qui ne découlera pas uniquement de l’analyse des Big Data (e.g Tweets, Likes, Video, GPS Data) mais de l’ensemble des données de l’entreprise et quel que soit leur lieu de résidence SI. Pour traiter de façon efficace ces All Data, les entreprises n’auront pas d’autres choix que d’introduire, au-delà des technologies de fédération de ces données, des technologies capables de leur simplifier l’extraction de valeur de plus en plus au fil de l’eau (Data Stream Analytics).
L’API-Culture, facteur d’outsourcing
Avec l’APIsation de son SI et l’évolution des modèles de sécurité (protection associée aux données et qui suit les données), la DSI pourra revoir sa stratégie pour les socles structurellement les moins pérennes comme c’est le cas pour les User Experience Frameworks en mouvement perpétuel. Dans un marché aussi atomisé que celui-ci, la DSI pourra renoncer à l’idée de se doter d’un socle unique commun et durable (une quête perdue d’avance) et s’orienter vers un outsourcing complet de la réalisation de ces frontaux digitaux laissant à un partenaire spécialisé la responsabilité de lui concevoir, développer et déployer dans le Cloud Hybride l’expérience utilisateur la plus engageante en se contentant de lui mettre à disposition uniquement des APIs sécurisés.
En 2016, la DSI devra donc veiller à se ré-orienter autour de la gestion, de la cohabition et de l’intégration d’un SI inévitablement à deux vitesses. Néanmoins, elle ne pourra le faire complètement sans intégrer aussi le Machine Intelligence et l’Event Processing. Le Machine Intelligence pour suppléer notre incapacité à interpréter les All Data tant en termes de pertinence, de vitesse que de coût. L’Event Processing pour assurer le liant entre l’orchestration des processus métier (interpréter, corréler et filtrer en amont les évènements), l’Internet-of-Everything et l’Information-of-Everything. Des technologies à observer impérativement en 2016 car promises à devenir des fondations majeures et centrales du système d’information de l’entreprise 3.0.
À propos de Sentelis
Sentelis est un cabinet de conseil en stratégie, gouvernance et architecture de systèmes d’information. Créée en avril 2011, Sentelis accompagne les décideurs SI dans leur transition numérique vers l'entreprise 3.0. Ses solutions différenciées apportent une réponse concrète à l'équation digitale que doit résoudre la DSI pour conjuguer innovation et industrialisation, pour intégrer les nouvelles réalités telles que le cloud computing, le mobile computing, l’omni-channel experience, les social medias, l’Internet-of-Things, le digital working, le shadow IT ou encore le Big Data. Elles répondent aux besoins d'efficience (Time-to-market) et d'efficacité (Cost-to-income) du SI. Elles sont imaginées et déployées au travers d'un cadre méthodologique, architectural et de gouvernance innovant et unique sur le marché, dont Sentelis est l'éditeur : smartfoundations™.
Sentelis smartfoundations™ couvre l'ensemble du cycle de vie des fondations du SI Digital, qu'ils s'agissent de composants SI ou de pratiques DSI transverses. Des fondations industrielles, pérennes et incontournables.
www.sentelis.com
Les médias du groupe Finyear
Lisez gratuitement :
Le quotidien Finyear :
- Finyear Quotidien
La newsletter quotidienne :
- Finyear Newsletter
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises de la finance d’entreprise et de la finance d'affaires.
Les 6 lettres mensuelles digitales :
- Le Directeur Financier
- Le Trésorier
- Le Credit Manager
- The FinTecher
- The Blockchainer
- Le Capital Investisseur
Le magazine trimestriel digital :
- Finyear Magazine
Un seul formulaire d'abonnement pour recevoir un avis de publication pour une ou plusieurs lettres
Le quotidien Finyear :
- Finyear Quotidien
La newsletter quotidienne :
- Finyear Newsletter
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises de la finance d’entreprise et de la finance d'affaires.
Les 6 lettres mensuelles digitales :
- Le Directeur Financier
- Le Trésorier
- Le Credit Manager
- The FinTecher
- The Blockchainer
- Le Capital Investisseur
Le magazine trimestriel digital :
- Finyear Magazine
Un seul formulaire d'abonnement pour recevoir un avis de publication pour une ou plusieurs lettres