<![CDATA[Guillaume Renouard : Dernier contenus]]>/account/guillaume-renouard-63679frFri, 25 Feb 2022 04:27:54 +0100Fri, 25 Feb 2022 04:27:54 +0100<![CDATA[OpenSea veut permettre l'avènement du web des créateurs grâce aux NFT]]>https://www.journaldunet.com/economie/finance/1509453-opensea-veut-permettre-l-avenement-du-web-des-createurs/Spécialisée dans l'échange de NFT, ou jetons non fongibles, la plateforme permet notamment aux artistes de diffuser et monétiser leurs œuvres auprès du public.]]>À peine quatre bougies et déjà plus de 13 milliards de dollars de valorisation : c'est ce qu'on appelle un succès fulgurant pour la jeune pousse OpenSea. Née dans la Silicon Valley, cette start-up de la blockchain a levé 300 millions de dollars auprès de divers investisseurs en capital-risque en janvier. La jeune pousse fonctionne comme une place de marché virtuelle qui permet d'acheter des NFT, ou jetons non fongibles, ces titres de propriété numérique basés sur la blockchain qui permettent d'authentifier et tracer la valeur d'un bien, notamment virtuel, sur Internet.

La folie des NFTs

S'il existe tous types de NFT, les plus populaires sont aujourd'hui des œuvres d'art numériques. Une plateforme comme OpenSea permet aux artistes de les mettre aux enchères et de les vendre ainsi à d'autres internautes contre une somme en cryptomonnaie, la plus utilisée étant l'éther, la monnaie virtuelle de la plateforme Ethereum.

Les transactions peuvent parfois atteindre des sommes faramineuses. Ainsi, les Bored Apes Yacht Club, une collection de 10 000 NFTs représentant des portraits de singes arborant toutes sortes de couvre-chefs, lunettes et autres accessoires, s'arrachent actuellement à 200 000 dollars le titre de propriété virtuel. Le footballeur Neymar, le rappeur Eminem et le basketteur Stephen Curry ont tous acquis le leur, certains aborrant ensuite fièrement leur singe en guise d'avatar sur les réseaux sociaux.

Mais les NFT peuvent également être des artefacts utilisables dans un jeu vidéo, des clips sportifs à l'intention des fans, ou encore des morceaux de musique : l'an passé, le groupe de rock américain Kings of Leon a mis en vente son dernier album sous forme de NFT, permettant aux fans d'acquérir une édition vinyle collector ou encore de s'assurer des places au premier rang pour les concerts à venir.

Des revenus qui explosent

La blockchain, les cryptomonnaies et les NFT connaissant une popularité croissante, les plateformes comme OpenSea rassemblent de plus en plus d'utilisateurs enthousiastes, ce qui ne manque pas d'attirer l'attention des investisseurs. Ainsi, en mars 2020, le total des transactions réalisées sur OpenSea s'élevait à 1,1 million de dollars, générant 28 000 dollars de revenus pour la plateforme (grâce à une commission de 2,5%). Mais en 2021, les choses se sont accélérées à toute vitesse. En juillet, la plateforme lève 100 millions de dollars auprès du célébrissime investisseur Andreessen Horowitz. On s'y échange alors pour 350 millions de dollars en NFT, un chiffre déjà fort respectable, multiplié par dix le mois suivant, générant 85 millions de dollars de revenus. En janvier, OpenSea comptait plus d'un million d'utilisateurs actifs.

Contrairement à nombre de ses rivaux, qui se spécialisent sur un usage particulier autour des NFT (art, jeux vidéo, musique, sport…), les fondateurs, Devin Finzer et Alex Atallah, ont fait le choix de construire une plateforme agnostique, laissant les utilisateurs décider eux-mêmes de l'usage qu'ils souhaitent privilégier. Une stratégie qui semble pour l'heure s'avérer payante.

Elle mise également sur des acquisitions ciblées susceptibles d'améliorer l'expérience utilisateur : en janvier, OpenSea a ainsi racheté Dharma Labs, un porte-monnaie virtuel basé sur la blockchain Ethereum, qui permet aux utilisateurs de transférer facilement des fonds entre leurs différents comptes.

Bugs à gogo

La plateforme rencontre toutefois des problèmes en matière de cybersécurité qui pourraient lui causer du tort auprès des utilisateurs. En décembre dernier, le propriétaire d'une galerie d'art virtuelle, Todd Kramer, s'est ainsi fait voler 16 images de Bored Apes en sa possession, pour plus de deux millions de dollars. Une paille par rapport aux 200 millions volatilisés de la plateforme le 20 février.

Deux cas loin d'être isolés, puisqu'au moins 13 cas de figure similaires ont été recensés par le medium Blockwork, spécialisé dans l'actualité de la blockchain et des cryptomonnaies. Au total, la plateforme a dû débourser des millions de dollars en guise de compensation aux utilisateurs qui ont été spoliés. 

Début février, OpenSea révélait en outre que 80% des NFTs créés sur sa plateforme étaient frauduleux, c'est-à-dire constituées d'œuvres plagiées ou inexistantes. La plateforme a récemment affirmé œuvrer à des solutions pour corriger les bugs techniques qui ont permis ces fraudes.

Préparer le web des créateurs

Mais il en faut davantage pour décourager les crypto-enthousiastes. La très vénérable maison de vente aux enchères britannique Sotheby's a récemment annoncé la création de son Sotheby's Metaverse, une salle de vente virtuelle dédiée aux collectionneurs de NFTs. L'œuvre 5,000 Days, de l'artiste Beeple, s'est vendue pour la somme astronomique de 69 millions de dollars.

Au total, plus de 28 milliards de dollars d'investissement dans le monde sont allés aux start-up spécialisées dans les cryptomonnaies et les NFTs en 2021, d'après PitchBook, une entreprise qui traque ces investissements. Ces jeunes pousses comptent actuellement parmi les plus attractives de la Silicon Valley, et n'ont aucune peine à recruter les meilleurs talents. Certains n'hésitent pas à quitter des emplois grassement rémunérés chez Facebook et Google pour rejoindre ce qu'ils considèrent comme un nouvel eldorado.

Car au-delà des transactions d'œuvre d'art virtuelles qui flirtent avec la spéculation la plus débridée, c'est le futur de l'internet que les start-up de la blockchain, des cryptomonnaies et des NFTs entendent inventer. Au web 2.0, ou web social, qui a permis aux utilisateurs de créer facilement toutes sortes de contenus, tout en mettant leurs données et leurs vies privées sous le contrôle d'une poignée de géant technologique, doit selon cette vision succéder un Web 3.0, ou web des créateurs. Grâce à la décentralisation et à la désintermédiation permise par la blockchain, cette troisième mouture de l'internet doit rebattre les cartes en faveur des créateurs de contenus, en leur permettant de facilement diffuser et monétiser leurs œuvres auprès de leur communauté.

OpenSea entend être à la pointe de ce succès, mais la concurrence s'annonce rude. En octobre dernier, Coinbase, la première plateforme d'échange de cryptomonnaies aux Etats-Unis, a annoncé le lancement de sa propre plateforme d'échanges de NFT. En quelques semaines, Coinbase a rassemblé 2,5 millions d'inscrits sur sa liste d'attente.

]]>
Tue, 22 Feb 2022 14:48:41 +0100https://www.journaldunet.com/economie/finance/1509453-opensea-veut-permettre-l-avenement-du-web-des-createurs/Guillaume RenouardJDN
<![CDATA[Qraft veut mettre les algorithmes au service de la finance]]>https://www.journaldunet.com/economie/finance/1509251-qraft-veut-mettre-les-algorithmes-au-service-de-la-finance/Cette jeune pousse sud-coréenne vient de recevoir un investissement de Softbank pour partir à la conquête du marché américain.]]>Le monde de la finance a été relativement réticent à adopter l'intelligence artificielle. Mais les choses sont en train de changer, comme l'illustre la récente levée de fonds de Qraft Technologies. En janvier, cette jeune pousse sud-coréenne a en effet reçu un investissement de 146 millions de dollars de la part de Softbank.

Le groupe japonais a été séduit par son logiciel qui compile d'immenses quantités de données sur les marchés pour guider l'investissement financier et optimiser la gestion de portefeuille. La start-up gère ainsi 1,7 milliard de dollars d'actifs pour des banques et sociétés d'assurances asiatiques, et via des ETF américains. Pour Softbank, il s'agit à la fois de miser sur la croissance future de la société et d'utiliser ses algorithmes pour optimiser sa propre stratégie d'investissement.

La sagesse des données

Pour Robert Nestor, un ancien de Blackrock et Vanguard recruté par Qraft pour diriger son implantation aux Etats-Unis, si le traitement des masses de données est déjà intégré par le secteur financier, Qraft offre une solution novatrice dans la mesure où celle-ci entend remplacer l'intuition initiale, qui comporte toujours une prise de risque, par l'analyse rationnelle d'immenses quantités de données.

"L'investissement quantitatif, qui existe déjà depuis des années, implique une hypothèse initiale formulée par un investisseur humain, qui cherche ensuite à étayer cette hypothèse grâce à l'analyse de données. De notre côté, il n'y a pas d'hypothèse de départ, l'intelligence artificielle se contente de traiter de grandes quantités de données, à l'aide de techniques d'apprentissage machine et d'apprentissage profond, pour identifier les caractéristiques qui indiquent qu'une action est performante. On raisonne donc à une échelle bien plus vaste", explique-t-il.

Cette technique est utilisée pour l'allocation d'actifs, la sélection de titres et les transactions en bourse. "Dans ce dernier cas, il s'agit d'identifier des micro-points d'inefficacité ou d'inconsistance sur le marché, et de faire remonter cette information aux traders", précise Robert Nestor .

Née en 2016, Qraft réalise actuellement la quasi-totalité de son chiffre d'affaires en Asie du Sud-Est, dont 80% en Asie. L'investissement de Softbank vise à faciliter son implantation aux Etats-Unis, où un premier bureau a été créé.  Robert Nestor y constitue le tout premier employé.

A l'assaut de l'Amérique

Les prochains mois seront donc consacrés à recruter, construire une équipe sur place et entrer en relation avec de nouveaux clients. L'entreprise compte commencer à dégager des revenus aux Etats-Unis fin 2022 et pense employer entre 50 et 100 personnes sur place à un horizon de trois ans. Selon Robert Nestor, l'une des principales difficultés à laquelle Qraft va être confrontée est la densité de la concurrence, plus fournie qu'en Asie du Sud-Est.

"On compte littéralement des milliers de prestataires et de solutions spécialisées dans la gestion de l'investissement. Il peut donc être difficile de parvenir à se différencier et à attirer l'attention des investisseurs." Ce vétéran de l'industrie financière est néanmoins convaincu que l'intelligence artificielle a désormais le vent en poupe dans le secteur, ce qui jouera en faveur de Qraft.

Il pense également, comme beaucoup d'analystes, que la période dorée qu'ont connue les marchés financiers américain touche désormais à sa fin, ce qui, là encore, pourrait jouer en la faveur de solutions comme celle de Qraft. "Sur les dix dernières années, nous avions un bull market aux Etats-Unis : la croissance du marché était telle qu'on était certain de gagner de l'argent en investissant dans le S&P 500, ce qui laissait peu de place pour l'investissement actif. Cependant, la plupart des investisseurs considèrent que les retours ne seront plus aussi hauts dans les années à venir, de sorte qu'on va revenir à des techniques de gestion des risques plus précises, ce qui est exactement ce que nous essayons de faire", résume-t-il.

Course à la technologie (et aux ingénieurs)

Signe qui ne trompe pas : avoir au moins des rudiments de code devient un atout, et sera sans doute bientôt nécessaire, pour travailler à Wall Street, où les banques se livrent une compétition acharnée pour recruter les meilleurs talents issus du monde des nouvelles technologies.

Début 2020, Citigroup recrutait 2 500 ingénieurs intégrés à ses équipes de trading, tandis que JP Morgan Chase et Goldman Sachs dispensent désormais des cours de code obligatoires à leurs traders. Dans sa lettre adressée à ses actionnaires fin 2020, Jamie Dimon, PDG de JP Morgan Chase, présentait l'adoption de technologies comme le cloud et l'intelligence artificielle comme une question de survie. Et fin 2021, suite à sa migration sur le cloud d'Amazon, Capital One lançait le recrutement de 3 000 ingénieurs logiciel, notamment spécialisés dans l'intelligence artificielle.

L'éducation supérieure prend bonne note. En 2020, la très prestigieuse Stern School of Business a pour la première fois créé un cursus autour des nouvelles technologies où, en plus des matières traditionnelles comme la finance et la comptabilité, les élèves apprennent désormais à coder. La revanche des geeks ?

]]>
Mon, 14 Feb 2022 16:30:44 +0100https://www.journaldunet.com/economie/finance/1509251-qraft-veut-mettre-les-algorithmes-au-service-de-la-finance/Guillaume RenouardJDN
<![CDATA[L'essor du capitalisme de la vie privée]]>https://www.journaldunet.com/ebusiness/crm-marketing/1509177-l-essor-du-capitalisme-de-la-vie-privee/Face aux scandales à répétition autour de la collecte des données personnelles et à la multiplication des lois encadrant celle-ci, une nouvelle industrie se structure.]]>En 2019, dans un livre qui fit grand bruit The age of surveillance capitalism, Shoshana Zuboff, professeur à la Harvard Business School, écrivait que nous vivions à l'âge du capitalisme de la surveillance, sous l'influence des Gafam et de leur modèle économique basé sur la collecte des données utilisateurs. Mais au fil des scandales liés à l'exploitation de ces données, et surtout depuis le vote du RGPD en 2016, un autre modèle économique se met en place sur la toile : un capitalisme de la protection de la vie privée.

Car la loi européenne a fait des émules, conduisant de nombreux pays à adopter leur propre législation sur le traitement des données personnelles. "Le RGPD a ricoché dans le monde entier. Aux Etats-Unis, le California Consumer Privacy Act (CCPA) a également eu un impact significatif. Plusieurs Etats américains ont suivi en adoptant leur propre régulation, de la Virginie au Colorado, et les rumeurs autour de l'adoption d'une loi fédérale vont bon train. Dans le reste du monde, nous continuons de voir émerger de nouvelles régulations, pour lesquelles nos clients comptent sur notre assistance, du LGP au Brésil en passant par le PIPL chinois et le PIPEDA canadien", affirme Andrew Clearwater, chief trust officer de OneTrust, une entreprise basée à Atlanta qui s'est donné pour mission d'aider ses clients à naviguer parmi la jungle des régulations encadrant collecte et traitement des données. Fondée en 2016, année où le RGPD a été voté, OneTrust affirme aujourd'hui compter plus de 10 000 clients à travers le monde, dont plus de la moitié des entreprises du Fortune 500. Sa valorisation est estimée à 5,3 milliards de dollars.

Naviguer sur une mer de régulations

Similaires dans l'esprit, les lois citées par Andrew Clearwater diffèrent dans les détails, posant un véritable casse-tête aux entreprises multinationales, qui doivent en permanence se tenir au courant des dernières régulations, d'autant que ces lois tendent également à évoluer après leur entrée en application. En novembre 2020, neuf mois après l'entrée en vigueur du CCPA, la Californie a ainsi voté la proposition 24, modifiant la loi pour assurer un plus grand contrôle aux Californiens sur leurs données personnelles. Flairant une opportunité, de nombreuses entreprises ont construit leur modèle d'affaires sur l'assistance aux entreprises, pour leur permettre de rester à jour sans être contraintes d'y consacrer d'énormes ressources en interne.

"Nous sommes nés avec cette nouvelle ère mettant la confidentialité et la protection des données personnelles au premier plan", confie Sarah Hospelhorn, directrice du marketing produit chez BigID, un concurrent de OneTrust, également né en 2016. "BigID a au départ été créée pour aider les entreprises à identifier les données personnelles en leur possession, afin de pouvoir répondre aux clients qui souhaiteraient accéder à toutes leurs données détenues par l'entreprise, comme le RGPD leur en donne le droit. Au fil des années, nous avons ajouté d'autres services, dont un outil pour surveiller la façon dont les données sont traitées, comme l'exige l'article 30 du RGPD. Ou encore de quoi gérer la rétention des données, pour les supprimer automatiquement après une certaine date, ou encore s'assurer de ne pas donner accès à des données confidentielles lors d'une fusion-acquisition..."

Des investisseurs toujours plus enthousiastes

Fort de son expertise accumulée depuis 2016, BigID a levé 30 millions de dollars en avril 2021, portant sa valorisation estimée à 1,25 milliard de dollars. Elle n'est pas la seule à attirer l'œil des investisseurs. En 2017, l'International Association of Privacy Professionals, une association à but non lucratif, dénombrait 44 jeunes pousses spécialisées dans la gestion des données personnelles. On en compte désormais 230 listées sur Crunchbase, qui ont reçu plus de 3 milliards de dollars de la part des investisseurs.

Outre l'approche généraliste de OneTrust et BigID, citons également d'autres prestataires plus spécialisés, comme NuLink, une start-up suédoise qui propose des outils permettant aux développeurs de mettre en place de bonnes pratiques autour de la protection des données personnelles. Ou encore Anonyome Labs, une plateforme permettant aux entreprises d'échanger avec leurs clients sans que ceux-ci n'aient à communiquer des informations personnelles.

Vers un capitalisme éthique ?

Si les lois comme le RGPD ont contribué à lancer l'industrie, cette dernière ne se contente pas d'aider les entreprises à respecter ces régulations. "Notre mission est de mettre en place à destination des entreprises la toute première plateforme centrée sur la confiance, ce qui inclut le respect de la vie privée, mais aussi la RSE, l'éthique, la gouvernance, la transparence… Toutes ces dimensions ne peuvent plus être traitées en silo, et notre ambition est de permettre à nos clients de les inscrire dans leur ADN", résume Andrew Clearwater.

Ces jeunes pousses voient dans le respect de la vie privée des utilisateurs l'émergence d'un nouveau paradigme, marqué par l'essor des entreprises à mission, dans lequel les consommateurs attendent des entreprises certains engagements éthiques. Comme le résume Sarah Hospelhorn, "les consommateurs savent que leurs données personnelles sont une monnaie d'échange, et privilégient donc les entreprises à qui ils peuvent faire confiance."

]]>
Wed, 09 Feb 2022 12:38:23 +0100https://www.journaldunet.com/ebusiness/crm-marketing/1509177-l-essor-du-capitalisme-de-la-vie-privee/Guillaume RenouardJDN
<![CDATA[Recrutement : les algorithmes dans le viseur des régulateurs US]]>https://www.journaldunet.com/management/ressources-humaines/1499211-les-algorithmes-de-recrutement-dans-le-viseur-des-regulateurs-us/A l'heure où ces solutions gagnent en popularité, les Américains votent des lois pour encadrer leur usage, et notamment limiter les risques de discrimination pointés par certains.]]>Si les solutions proposant de recourir à l'intelligence artificielle pour faciliter le recrutement se multiplient depuis plusieurs années, le coronavirus a largement favorisé leur adoption. L'entreprise HireVue, qui propose un logiciel analysant les vidéos d'entretiens à l'aide de l'IA pour sélectionner les meilleurs candidats, rapporte que le nombre d'entretiens en direct analysés par ses soins a augmenté de 80% l'an passé par rapport à 2019. Dès mars 2020, 89% des employeurs américains ont commencé à réaliser des entretiens en ligne, formule qui se prête plus facilement à l'usage de solutions du type HireVue.

A New York, un projet de loi prévoit d'obliger les entreprises utilisant des algorithmes de recommandation à en informer les candidats

Les entreprises qui mettent en place des outils mobilisant l'intelligence artificielle au service du recrutement promettent un processus non seulement plus efficace, mais aussi plus juste, la neutralité des algorithmes étant censée permettre de s'affranchir des biais humains. D'autres voix affirment au contraire que ces algorithmes risquent de perpétuer, voire d'amplifier les discriminations existantes. Face à cette controverse, l'idée d'instaurer des régulations visant à s'assurer de leur transparence et de leur effet bénéfique fait son chemin outre-Atlantique.

New York s'en prend aux algorithmes de recrutement

La dernière entité à avoir agi dans ce sens est la ville de New York. Une loi actuellement en cours de préparation prévoit ainsi d'obliger les entreprises utilisant des algorithmes de recommandation durant leur processus de recrutement à en informer les candidats. Celles qui conçoivent et commercialisent ces algorithmes devront pour leur part se soumettre à un audit annuel visant à prouver qu'ils n'entraînent pas de discriminations.

Le projet de texte prévoit de soumettre les entreprises qui conçoivent et commercialisent ces algorithmes à un audit annuel visant à prouver qu'ils n'entraînent pas de discriminations

Pas encore votée, la loi suscite d'âpres débats, certains partisans d'une régulation stricte de ces algorithmes trouvant notamment qu'elle ne va pas assez loin. Une douzaine d'organisations, dont le Surveillance Technology Oversight Project (qui défend la vie privée face aux nouvelles technologies), la National Association for the Advancement of Colored People (défense des droits civiques) et l'AI Now Institute (institut de recherche de l'université de New York qui étudie l'impact de l'intelligence artificielle sur la société), ont ainsi cosigné une lettre critiquant ce projet de loi.

Ces associations jugent notamment qu'il n'est pas suffisamment précis quant à la nature de l'audit auquel devraient se soumettre les concepteurs d'algorithmes. Ce manque de précision ouvre selon eux la voie à des audits souples qui permettraient aux entreprises de donner un verdict de respectabilité à des algorithmes en réalité discriminants.

Tout en partageant ces inquiétudes, Julia Stoyanovich, directrice du Center for Responsible AI de l'Université de New York, trouve que la loi a le mérite de susciter le débat autour de ces problématiques. "Cela va permettre d'informer le public du fait qu'on est aujourd'hui évalués en partie par des machines et en partie par des humains", affirme-t-elle. Nombre de personnes ignorent totalement, selon elle, l'existence de ces algorithmes et l'impact qu'ils peuvent avoir sur leur carrière. HiredScore et Pymetrics, deux jeunes pousses de New York qui proposent des solutions pour automatiser le recrutement, soutiennent également la mesure.

Vers des actions à l'échelon fédéral sous Joe Biden ?

L'initiative de New York n'est que la dernière en date, et plusieurs avancées législatives ont déjà été mises en place outre-Atlantique. Depuis le 1er janvier 2019, l'Artificial Intelligence Video Interview Act est entré en vigueur dans l'Etat de l'Illinois. Les entreprises de l'Etat qui enregistrent les vidéos d'entretien et utilisent des algorithmes d'IA pour les analyser doivent désormais avertir les postulants de la procédure, leur expliquer comment l'intelligence artificielle fonctionne, ses critères d'évaluation, et obtenir leur consentement. La vidéo ne peut être partagée qu'aux personnes chargées d'évaluer le candidat, et la loi donne également aux individus interviewés la possibilité de demander la suppression de la vidéo. Suite à quoi les entreprises ont 30 jours maximum pour s'exécuter. Une loi similaire votée dans le Maryland encadre également l'usage des technologies de reconnaissance faciale pour le recrutement.

En décembre 2020, dix sénateurs ont demandé une enquête sur les discriminations entraînées par l'usage de l'intelligence artificielle au service du recrutement

A l'échelon fédéral, aucune initiative n'a encore été prise en la matière. L'Algorithmic Accountability Act, proposé en avril 2019, était un projet de loi visant à réguler l'usage des algorithmes par les entreprises privées. Il n'a finalement pas été adopté, mais montre que le pouvoir législatif américain suit ce domaine de très près. Le titre 7 du Civil Rights Act of 1964 rend pour sa part illégale toute discrimination à l'embauche, et certains souhaitent aujourd'hui s'appuyer dessus pour réguler les algorithmes de recrutement.

En décembre 2020, dix sénateurs américains ont ainsi écrit à Janet Dhillon, présidente de l'Equal Employment Opportunity Commission, chargée de contrôler l'application de la loi de 1964, pour lui demander d'enquêter sur les discriminations entraînées par l'usage de l'intelligence artificielle au service du recrutement. Les entreprises fabriquant et utilisant cette technologie peuvent donc s'attendre à davantage d'attention de la part des autorités sous l'administration Biden.

A noter que ces différentes initiatives politiques ne rejettent pas en bloc l'usage de l'intelligence artificielle dans le recrutement. Les dix sénateurs susnommés reconnaissent ainsi que "les technologies de recrutement peuvent parfois limiter l'impact des biais des recruteurs", mais affirment également qu'il subsiste de nombreuses inconnues, et qu'il est capital que ces technologies "rendent le recrutement plus égalitaire, plutôt que d'ériger des barrières artificielles et discriminatoires à l'emploi".

En Europe, le RGPD pose certaines obligations

Dans l'Union européenne, la question commence également à éveiller l'attention des régulateurs. Un livre blanc paru l'an passé, consacré à l'éthique de l'intelligence artificielle, contient ainsi des propositions qui, parmi d'autres technologies, concerneraient les algorithmes de recrutement. Certaines suggèrent notamment l'établissement de standards pour l'IA, comme la nécessité d'utiliser des jeux de données représentatifs, d'autres des impératifs de transparence des algorithmes et un possible audit des modèles par les autorités.

Les entreprises européennes qui recourent à ce type de solutions doivent également s'assurer que le concepteur de l'algorithme respecte certaines règles

En vertu du RGPD, les entreprises européennes qui recourent à ce type de solutions doivent également s'assurer que le concepteur de l'algorithme respecte certaines règles. Par exemple, si la technologie recourt à l'apprentissage machine, l'entreprise qui l'utilise doit se renseigner sur "le degré d'équilibre des bases de données". L'objectif : éviter que certaines catégories de personnes soient sous-représentées, ce qui pourrait conduire l'algorithme à discriminer envers elles. Dans le cas d'un tri de candidatures par un algorithme, le client doit obtenir du fournisseur qu'il explique "en termes généraux" les méthodes utilisées pour évaluer les candidats.

En Europe comme aux Etats-Unis, un certain flou juridique plane toutefois sur ces solutions de pointe. Qui est juridiquement responsable quand un algorithme est coupable de discrimination ? Comment se partage la responsabilité entre l'entreprise qui l'a conçu et celle qui l'a utilisé ? Tout comme pour les voitures autonomes, en l'absence de régulations plus précises, de véritables casse-têtes juridiques s'annoncent à l'horizon.

]]>
Fri, 26 Mar 2021 10:52:27 +0100https://www.journaldunet.com/management/ressources-humaines/1499211-les-algorithmes-de-recrutement-dans-le-viseur-des-regulateurs-us/Guillaume RenouardJDN
<![CDATA[Cisco bascule vers le logiciel pour s'adapter à l'ère du tout cloud]]>https://www.journaldunet.com/web-tech/cloud/1497531-cisco-poursuit-sa-bascule-vers-le-logiciel-pour-s-adapter-a-lere-du-tout-cloud/Deux récentes acquisitions servent le virage stratégique impulsé par le PDG de l'équipementier réseau, Chuck Robbins, pour enrayer la chute des revenus.]]>Cisco se montre particulièrement actif en cette fin d'année, multipliant les rachats dans l'optique de réorienter sa stratégie et redynamiser son modèle d'affaires. L'équipementier réseau californien a récemment acquis IMImobile, jeune pousse britannique spécialiste du logiciel de communication dans le cloud, et Slido, une plateforme de Q&A slovaque conçue pour rendre les applications de visioconférence plus interactives, notamment face à une audience de plus en plus importante. Ces deux acquisitions se placent dans la droite ligne d'une stratégie amorcée l'an dernier avec le lancement de l'architecture Cisco Silicon One, et qui s'est accélérée avec la crise du Coronavirus. Objectif du groupe : mettre l'accent sur le logiciel et s'adapter davantage à l'ère du tout cloud.

Si la Tech a été plutôt épargnée par la crise, certains géants du secteur tels Amazon ou Google en tirent même de juteux bénéfices. Cisco a pour sa part fait face à des difficultés, enregistrant début novembre un déclin de ses revenus pour le quatrième trimestre consécutif. Explication : le modèle d'affaires de l'entreprise est centré sur la vente d'équipements professionnels destinés aux entreprises. Or, à l'heure où nombre d'entre elles ont généralisé le télétravail et fait face à un ralentissement économique, elles ont du même coup repoussé l'achat de coûteux équipements informatiques pour leurs bureaux.

Frappée par la crise, Cisco vire de bord

"Les clients continuent de repousser leurs décisions d'achats dans certains domaines IT tout en augmentant les dépenses dans d'autres, en attendant d'avoir une meilleure visibilité quant à une reprise économique globale", constate le directeur général de Cisco, Chuck Robbins, en août dernier.

Après avoir affirmé au printemps qu'il n'en était pas question, l'entreprise a finalement dû se résoudre à enclencher une vague de licenciements, annonçant que 3 500 postes allaient être supprimés dans le monde entier (un article du Washington Post, contesté par Cisco, fait quant à lui état de 8 000 licenciements). L'annonce fait partie d'une politique de réduction des coûts qui vise à économiser un milliard de dollars. Malgré des performances en berne, Cisco a toutefois limité la casse avec un quatrième trimestre fiscal meilleur que prévu, grâce notamment à des ventes en hausse dans le secteur du logiciel.

"Avec le redéploiement massif des opérations à distance, nos clients se tournent vers nos offres Catalyst 9000, Security, et WebEx"

L'entreprise a atteint l'objectif fixé pour 2020 de tirer au moins 50% de ses revenus de la vente de logiciels et de services. "La pandémie a également entraîné un redéploiement massif et rapide des opérations à distance et de l'automatisation pour garantir la sécurité de chacun. Ainsi, les clients sont de plus en plus nombreux à se reposer sur notre portfolio de technologies, ce qui a entraîné une forte demande pour Catalyst 9000, Security, WebEx et autres solutions SaaS ce trimestre", affirme Chuck Robbins.

Tirant les leçons de la pandémie, Cisco est en train d'adapter sa stratégie afin de répondre aux besoins de l'entreprise de demain, en mettant l'accent sur le logiciel et le cloud. Elle suit ainsi une tendance générale au sein de l'industrie des nouvelles technologies, qui se traduit par une perte de vitesse des systèmes informatiques sur site au profit du cloud. Un repositionnement déjà amorcé avant le début de la crise, mais que celle-ci a contribué à accélérer. Dans une interview accordée à Mad Money en mai dernier, Chuck Robbins affirmait que la généralisation du télétravail était selon lui partie pour durer, et que l'entreprise du futur fonctionnerait sur un modèle hybride entre présentiel et travail à distance.

Deux nouvelles briques stratégiques

Le rachat de Slido s'inscrit dans la droite ligne de cette vision, et vise à renforcer WebEx, l'outil de visioconférence de Cisco, face à ses rivaux que sont Zoom, Google Meet ou Microsoft Teams. Slido facilite notamment le pilotage de sondages en interne, une fonction très utile pour faire remonter des informations de la base dans un contexte de gestion de crise. Il permet également de gérer les questions et interactions au sein d'une large audience participant à un échange ou à une conférence en direct. L'intégration du produit à WebEx ajoute une nouvelle corde à l'arc de Cisco, notamment dans l'optique d'animer des conférences à distance.

"C'est un excellent mécanisme pour interagir avec une audience en temps réel", commente ainsi Abhay Kulkarni, vice-président et general manager de WebEx, dans un article de blog annonçant le rachat. Si les fonctionnalités de Slido seront intégrées à WebEx, Cisco compte toutefois le maintenir sous forme de produit indépendant et s'assurer qu'il reste compatible avec d'autres outils concurrents. "Cisco est conscient de la valeur de Slido en tant que produit autonome et de l'importance de permettre une excellente intégration avec d'autres applications de réunion et de présentation virtuelle comme Teams, Zoom et Google Meet", confie ainsi Juraj Pal, chef de produit chez Slido, à TechCrunch. 

"N'ayant pas été capable de répondre aux nouvelles demandes des géants du cloud, Cisco a perdu du terrain dans les centres de données"

Cette approche ouverte et collaborative témoigne de la volonté de Cisco de s'insérer dans un environnement logiciel et cloud. L'acquisition de IMImobile s'inscrit également dans cette optique. Le logiciel de cette entreprise britannique simplifie les interactions des entreprises avec leurs clients via les réseaux sociaux, la messagerie et la voix. Ce rachat devrait donc permettre à Cisco de donner un coup de pouce à ses fonctions d'interaction client dans WebEx et autres solutions logicielles.

Vers le cloud et au-delà

Depuis le cœur de la Silicon Valley, Cisco a contribué à façonner la colonne vertébrale de l'internet au cours des trois dernières décennies avec ses équipements réseau. Mais l'entreprise a tardé à prendre le virage du cloud. "Les entreprises traditionnelles veulent un réseau fiable, résilient et hautement performant, et les solutions propriétaires et monolithiques de Cisco sont taillées pour cela. Cependant, les géants du cloud comme Amazon avec AWS et Microsoft avec Azure ont besoin de plus. Ils demandent des solutions flexibles, économes et capables de croître rapidement, pour soutenir la croissance effrénée de leurs immenses réseaux. Comme il n'a pas été capable de satisfaire cette nouvelle demande à travers son portfolio traditionnel, Cisco a perdu du terrain sur le marché des centres de données en forte croissance, et des concurrents comme Arista Networks ont tiré profit de cette faiblesse", estime Hervé Blandin, analyse IT.

Pour revenir dans la course et amorcer le basculement vers le logiciel voulu par Chuck Robbins, Cisco a l'an dernier lancé Cisco Silicon One, une architecture de circuit intégré maison, ouverte aux entreprises tierces, qui peuvent y implanter leurs propres réseaux, un appel direct aux géants du cloud. Après une année qui a largement consacré la suprématie de cette technologie, Cisco poursuit sur sa lancée et espère accélérer sa mue pour retrouver sa place parmi les leaders de la Silicon Valley.

]]>
Thu, 04 Feb 2021 15:59:18 +0100https://www.journaldunet.com/web-tech/cloud/1497531-cisco-poursuit-sa-bascule-vers-le-logiciel-pour-s-adapter-a-lere-du-tout-cloud/Guillaume RenouardJDN
<![CDATA[Les lois sur la localisation des données génèrent de nouveaux modèles d'affaires]]>https://www.journaldunet.com/solutions/dsi/1494425-les-lois-sur-la-localisation-des-donnees-generent-de-nouveaux-modeles-d-affaires/Plusieurs start-up aident les entreprises à naviguer parmi l'imbroglio juridique et à faire en sorte que leurs data soient stockées au bon endroit.]]>Ces dernières années ont vu se multiplier les normes et réglementations autour de la manipulation et du déplacement des données. Dans ce contexte, les entreprises opérant à l'international se retrouvent confrontées à un véritable casse-tête réglementaire. Dernier rebondissement en date : l'abandon, en juillet, du bouclier de protection des données UE-Etats-Unis. Mis en place en 2016, il permettait jusque-là aux entreprises de transférer les données personnelles sans restriction entre les Etats-Unis et l'Union européenne. Celui-ci n'étant plus valide, le transfert de données entre les deux zones peut désormais entraîner des pénalités, en accord avec le RGPD. Plus de 5 300 entreprises seraient concernées. En cas de non-respect des normes imposées par le RGPD, elles risquent une amende pouvant monter jusqu'à 4% de leurs revenus.

À l'heure où la souveraineté des données est à l'ordre du jour et où un nombre croissant d'Etats se dotent de lois limitant leur libre circulation, plusieurs jeunes pousses surfent sur cette vague pour aider les entreprises à respecter les normes en matière de souveraineté et de localisation des données et éviter les amendes. Quelques jours après avoir levé 18 millions de dollars, InCountry, basée à San Francisco, a ainsi annoncé le vendredi 4 septembre dernier qu'elle étendait son offre de localisation des données à tous les pays européens, notamment en réaction à cette décision. OneTrust, une autre entreprise spécialisée dans la gestion des données, leur gouvernance, et leur mise en conformité, qui travaille avec la moitié des entreprises du Fortune 500, affirme de son côté que cette décision a conduit de nombreuses entreprises à la contacter.

"L'arrêt Schrems II de la Cour de justice de l'UE a accru la demande de services de localisation et de management des données en Europe"

"L'arrêt Schrems II de la Cour de justice de l'Union européenne a accru la demande de services de localisation et de management des données dans l'UE. Nous avons travaillé avec de nombreux clients pour les aider à mettre en place des mécanismes de transfert des données en conformité avec la décision de la Cour de justice et le RGPD", affirme Victoria Matallah, responsable marketing France de OneTrust.

De la Chine à la Russie, en passant par l'Australie et le Vietnam, plus de 130 pays ont mis en place des lois obligeant les entreprises à stocker au moins certains types de données concernant leurs citoyens dans des serveurs situés sur le territoire national. Dans plusieurs pays, comme la Russie, tous les types de données sont concernés. D'autres ciblent seulement certaines données sensibles : la loi australienne ne concerne par exemple que les données de santé. Le fonctionnement de ces lois diffère dans chaque pays et évolue en permanence. Les multinationales sont donc confrontées à un paysage de plus en plus fragmenté et risqué, sachant que toute infraction peut engendrer une amende salée, voire le bannissement pur et simple du pays en question.

Résidence des données en tant que service

Pour répondre à la demande des entreprises confrontées à une multiplication des normes, OneTrust a conçu un système qui lui permet de naviguer facilement parmi ces dernières : "L'outil est alimenté par le contenu d'une base de données comprenant des renseignements sur des centaines de lois. Par conséquent, OneTrust s'adapte aux juridictions et aux cadres de référence applicables aux activités de nos clients, en générant des tableaux de bord, des graphiques et des rapports de tenue de registres correspondant à leurs besoins", précise Victoria Matallah.

L'an passé, OneTrust a racheté DataGuidance, une plateforme de recherche et de veille spécialisée dans la sécurité et la confidentialité des données, afin de renforcer sa capacité à fournir un service juridique aux entreprises dépassées.

InCountry affirme de son côté offrir à ses clients la "résidence des données en tant que service" et veut devenir le "Deloitte des données", selon les mots de son fondateur,  Peter Yared. Le logiciel de la jeune pousse crée une copie des données soumises à résidence et les stocke en local dans les pays concernés, dans ses propres serveurs cloud fournis par AWS, Azure, Google Cloud et Alibaba Cloud. Les données sont ensuite synchronisées en temps réel entre les deux bases de données.

"Il devient très difficile pour les entreprises de se conformer aux règles sur la localisation des données qui se révèlent de plus en plus complexes et disparates"

"Nous aidons les multinationales à croître dans un monde de plus en plus régulé. Le nombre de lois sur la localisation des données est en hausse constante, et il devient très difficile pour les entreprises de se conformer à ces règles complexes et disparates. Cela demande beaucoup de temps, des moyens financiers et un recours à des experts qui maîtrisent les différentes régulations régionales, un investissement qui n'est pas à la portée de la plupart des entreprises. Dans ce contexte, notre ambition est de fournir une solution unique autour de la conformité des données afin que les entreprises n'aient plus besoin de s'en soucier", explique Peter Yared. 

Le coronavirus a donné un important coup de pouce au logiciel en tant que service (SaaS), déjà en pleine croissance depuis plusieurs années. La généralisation du télétravail a accru l'appétence pour les solutions logicielles permettant d'opérer à distance et de facilement manipuler les données depuis n'importe quel endroit, tandis que les remous de la conjoncture économique ont rendu la flexibilité offerte par le SaaS, qui permet de facilement accroître et réduire le volume de ses activités, ce qui se révèle plus nécessaire que jamais.

Mais dans la précipitation, et dans un contexte de régulations croissantes, le risque est grand pour ces entreprises d'enfreindre par mégarde l'une des nombreuses lois régissant le déplacement des données. C'est cette conjoncture de phénomènes qui ouvre un boulevard à des start-up comme OneTrust et InCountry. Ces entreprises suivront tout naturellement l'évolution des régulations au cours des prochains mois avec une attention soutenue. "Les autorités européennes et américaines discutent actuellement du futur des transferts de données entre les deux juridictions. Nous verrons comment évoluent ces négociations", conclut Victoria Matallah.

]]>
Mon, 19 Oct 2020 18:05:45 +0200https://www.journaldunet.com/solutions/dsi/1494425-les-lois-sur-la-localisation-des-donnees-generent-de-nouveaux-modeles-d-affaires/Guillaume RenouardJDN
<![CDATA[Les algorithmes s'immiscent à chaque étape du recrutement]]>https://www.journaldunet.com/management/ressources-humaines/1493487-les-algorithmes-s-immiscent-a-chaque-etape-du-recrutement/L'usage de l'intelligence artificielle pour automatiser le recrutement connaît une popularité croissante avec la pandémie et la montée du télétravail. Mais pour quelle fiabilité ?]]>En entraînant une généralisation massive du télétravail, le coronavirus a mis les entreprises face à un nouveau défi : recruter des candidats entièrement à distance. Cet impératif a renforcé la popularité des logiciels d'intelligence artificielle conçus pour assister le recrutement, qui se développent depuis plusieurs années déjà, mais dont la proposition de valeur devient plus que jamais évidente. Leur promesse : rendre le recrutement plus rapide, meilleur et plus juste, le tout grâce à la magie des algorithmes.

Différentes formes de recrutement algorithmique

Le processus de recrutement étant long et complexe, l'intelligence artificielle peut s'y insérer à plusieurs niveaux. Il n'y a donc pas une, mais plusieurs approches algorithmiques en matière d'assistance à l'embauche. Une première catégorie d'outils permet d'automatiser la quête de candidats potentiels. Cela inclut les plateformes comme LinkedIn ou ZipRecruiter, qui connectent automatiquement les demandeurs d'emploi avec des offres correspondant à leurs compétences. D'autres, comme Arya, sondent l'Internet en quête de données pour identifier les candidats idéaux pour un poste. Une dernière catégorie recourt aux sciences des données afin d'optimiser la rédaction des offres d'emploi pour attirer un maximum de candidats. C'est ce que propose une entreprise comme Textio.

Vient ensuite la sélection des candidats dans le but de planifier les entretiens. Ici, l'intelligence artificielle permet d'assister managers et ressources humaines dans le choix des meilleurs candidats. Citons notamment Ideal ou encore Sniper AI, dont les algorithmes lisent les CV des candidats et sélectionnent automatiquement les plus prometteurs. D'autres, comme Mya ou encore Paradox, proposent un chatbot qui contacte automatiquement les profils retenus pour s'assurer lors d'une conversation basique qu'ils possèdent bien les compétences nécessaires, et programmer un premier entretien avec un recruteur humain.

Vient, enfin, l'heure des entretiens en eux-mêmes et de la décision finale. A l'heure où nombre de ces entretiens se font à distance, la plateforme HireVue commercialise une intelligence artificielle qui, sur les vidéos d'entretiens, analyse les expressions faciales, les mots employés et le ton des candidats (des "dizaines de milliers de facteurs" au total, selon l'entreprise) pour attribuer à chacun "un score d'employabilité". Censé établir la compatibilité du candidat pour un poste en particulier, il vise à aider les recruteurs à prendre leur décision.

La promesse d'un recrutement plus juste

HireVue, qui compte Hilton, Unilever et Goldman Sachs parmi ses clients, affirme que son dispositif permet d'évaluer les candidats de manière plus neutre et objective que ne le ferait un recruteur humain, soumis à toutes sortes de biais susceptibles d'altérer son jugement. Outre une efficacité accrue et un processus adapté au travail à distance, c'est en effet la grande promesse du recrutement algorithmique : lutter contre la discrimination à l'embauche en remplaçant la faillibilité humaine par la loi d'airain, l'incorruptibilité des algorithmes. Capables de traiter des quantités de données inaccessibles à un cerveau humain, insensibles à la fatigue et d'une froide rationalité, ceux-ci seraient le meilleur moyen de lutter contre les biais dont souffrent certaines catégories de la population sur le marché du travail.

Un article de l'université de Cornell, dans l'Etat de New York, paru en décembre 2019 et analysant 18 entreprises proposant des solutions de recrutement algorithmiques, observe ainsi que la majorité d'entre elles se présentent comme des alternatives plus justes et moins biaisées au jugement humain. Mais sur ce point, les chercheurs semblent partagés. Selon cette même étude, les algorithmes utilisés par ces entreprises sont trop opaques pour que l'on puisse affirmer avec certitude qu'ils rendent les embauches plus justes. Après avoir mis au point son propre outil visant à automatiser le processus de recrutement, Amazon a pour sa part abandonné le projet en 2018, après s'être rendu compte que l'algorithme était biaisé à l'encontre des candidats de sexe féminin.

Les algorithmes sont-ils vraiment objectifs ?

C'est en effet l'une des critiques régulièrement adressées aux algorithmes : puisqu'ils sont conçus par des humains, le risque est grand que ces derniers réintroduisent leurs biais inconscients dans l'ADN de ces algorithmes, perpétuant ainsi les discriminations sous couvert d'objectivité. "Les algorithmes qu'on entraîne sur des jeux de données apprennent à partir des choix humains observés dans ces données, et leur but est de reproduire ces décisions passées. Une fois qu'un algorithme a été conçu, il peut être appliqué de manière impartiale, mais le danger provient principalement des choix effectués lors de sa conception", explique Manish Raghavan, chercheur qui étudie l'usage des algorithmes pour le recrutement à l'université de Cornell.

Nombre de logiciels visant à sélectionner les meilleurs candidats sont en effet entraînés sur les données de recrutement passées des entreprises, ce qui paraît logique, mais risque du même coup de réintroduire les biais que ces entreprises essaient de combattre. Ainsi, le logiciel conçu par Amazon avait été entraîné sur les CV envoyés au géant du commerce en ligne au cours des dix dernières années : la majorité de ces CV appartenant à des hommes, l'algorithme en avait conclu que la variable "sexe masculin" était un facteur positif pour un candidat.

Les limites des algorithmes de recrutement n'enlèvent rien à leur intérêt

Mais cet écueil n'est pas impossible à éviter. "Notre système ne prend en compte ni l'âge, ni le sexe, ni le nom du candidat pour effectuer sa sélection", affirme ainsi Somen Mondal, directeur général et cofondateur d'Ideal. "Pour nous assurer que le processus d'embauche est aussi juste que possible, nous comparons en outre les profils des candidats qui postulent avec ceux des personnes qui parviennent jusqu'à l'étape de l'entretien, jusqu'au recrutement, etc. Si nous constatons que pour un tel poste, 50% des postulants sont des femmes mais que seulement 5% des individus recrutés sont de sexe féminin, c'est qu'il y a un problème." L'entreprise a par ailleurs conçu ses algorithmes pour qu'ils puissent toujours expliquer leurs décisions, évitant ainsi les boîtes noires.

Les limites des algorithmes de recrutement n'enlèvent rien à leur intérêt. Bien conçus et utilisés, ils pourraient bien rendre les embauches plus justes et efficaces. Mais de nombreux experts incitent à la prudence et suggèrent la mise en œuvre de régulations pour encadrer cette pratique. En 2019, l'Illinois est devenu le premier Etat américain à mettre en place une loi offrant une protection aux travailleurs dans ce domaine. Elle oblige l'employeur à demander la permission au candidat avant d'enregistrer une vidéo de son entretien à distance et d'y appliquer des algorithmes d'intelligence artificielle. Elle doit également l'informer des critères que le logiciel utilisera pour l'évaluer et supprimer ses données sous un délai de 30 jours.

]]>
Mon, 07 Sep 2020 14:54:34 +0200https://www.journaldunet.com/management/ressources-humaines/1493487-les-algorithmes-s-immiscent-a-chaque-etape-du-recrutement/Guillaume RenouardJDN
<![CDATA[Girish Mathrubootham (Freshworks) : "Freshworks veut faire pour le CRM ce que l'iPhone a fait pour la téléphonie"]]>https://www.journaldunet.com/ebusiness/crm-marketing/1493071-girish-mathrubootham-ceo-freshworks/Licorne indienne du CRM, Freshworks est régulièrement distinguée pour ses solutions d'engagement client. Son directeur général, Girish Mathrubootham, évoque sa vision de ce secteur.]]>JDN. Votre entreprise a récemment été qualifiée de "visionnaire" par le Gartner Magic Quadrant for CRM Customer Engagement Center. Quelle dimension de la relation client pensez-vous avoir particulièrement bien comprise ?
Girish Mathrubootham est le CEO de Freshworks. © Freshworks

Girish Mathrubootham. Aujourd'hui, la plupart des entreprises traitent la relation client de manière déficiente. Elles ont un outil et une équipe différents pour les requêtes effectuées par email, par téléphone, sur leur chat et sur les réseaux sociaux, qui ne sont pas harmonisées. Ainsi, lorsqu'un même client contacte l'entreprise par téléphone après avoir échangé avec un représentant par email, le contexte est perdu, on repart de zéro et le client doit tout réexpliquer. Les entreprises ont à l'origine été organisées ainsi car les frontières entre ces différentes technologies étaient parfaitement hermétiques, mais ce n'est plus le cas aujourd'hui. Cette division n'a donc plus de sens.

Notre ambition est de décloisonner. C'est pourquoi nous avons mis en place notre plateforme de relation client omnichannel. Freshdesk, notre produit phare, qui permet à chaque agent de prendre en charge les clients, quel que soit le canal utilisé pour contacter l'entreprise, et de conserver le contexte d'un canal à l'autre. On obtient ainsi une relation beaucoup plus efficace et harmonisée, et on donne une liberté totale au client dans le choix de la manière dont il contacte l'entreprise. Ainsi, les individus âgés ont une préférence pour le téléphone, tandis que les jeunes générations préfèrent utiliser le chat ou les réseaux sociaux…

Sur quels facteurs misez-vous pour vous différencier des ténors du CRM, comme Salesforce ?

La principale différence est que notre logiciel est conçu pour les utilisateurs finaux. De nombreux logiciels d'entreprise sont pensés avant tout pour des managers et dirigeants d'entreprise. Ils sont donc bien pourvus en outils d'analyse, mais ils sont très difficiles à prendre en main. Notre objectif a dès le début été de rendre notre produit intuitif. La seconde différence repose sur la façon dont nous traitons la personnalisation des services. La plupart des entreprises SaaS mobilisent un ingénieur qui se rend sur place et rédige de nombreuses lignes de code personnalisées. De notre côté, notre plateforme propose une bibliothèque avec des milliers d'applications déjà développées, parmi lesquelles les entreprises clientes peuvent piocher pour ensuite construire leur propre application personnalisée. Pour dresser une analogie, lorsque vous souhaitez installer une nouvelle application sur votre smartphone, recrutez-vous un consultant pour qu'il code l'application de A à Z à votre place ou téléchargez-vous simplement une application déjà disponible sur l'Apple Store ? Nous avons pour notre part opté pour le second modèle, ce qui permet à nos clients de se déployer beaucoup plus rapidement. Nous avons de nombreux exemples où nos clients ont pu mettre leur solution sur le marché en huit semaines, ce qui aurait pris huit mois avec une solution SaaS traditionnelle.

"Des clients ont pu mettre leur solution sur le marché en huit semaines, ce qui aurait pris huit mois avec une solution SaaS traditionnelle"

Vous avez, dès la création de l'entreprise en 2008, compris l'importance des réseaux sociaux dans la relation client. Quelles sont aujourd'hui les nouvelles tendances que vous voyez émerger et qui joueront selon vous un rôle déterminant à l'avenir ?

Les nouvelles applications de messagerie sont un canal dont l'importance est vouée à s'accroître avec le temps, car les jeunes générations préfèrent ce mode d'interaction aux appels téléphoniques. Des applications comme Apple Business Chat, Facebook Messenger et WhatsApp jouent donc un rôle clef pour permettre aux marques d'interagir avec les millénnials. Il devient ainsi capital de permettre au public d'échanger avec le service client via ces canaux, ce que nombre d'entreprises ne font pas à l'heure actuelle.

L'intelligence artificielle et les chatbots constituent bien sûr une autre transformation majeure, qui recèle une immense valeur potentielle pour les entreprises. Les chatbots permettent notamment d'automatiser un premier niveau d'interaction avec le client. Grâce à cette technologie, les entreprises peuvent investir ce nouveau canal qu'est la messagerie sans avoir à recruter un nombre exponentiel d'agents. Nous avons racheté une start-up, Joe Hukum, dans cette optique, et conçu notre propre logiciel d'intelligence artificielle appliquée à la relation client, baptisé Freddy.

"Nous avons conçu notre propre logiciel d'intelligence artificielle appliquée à la relation client, baptisé Freddy"

Quels sont les autres usages de l'intelligence artificielle, au-delà des chatbots, dans la relation client ?

Nombre de centres d'appels connaissent un turnover important, et sont donc contraints de former rapidement et en permanence de nouveaux agents. Nous avons pour cela conçu un assistant artificiel capable de guider les nouvelles recrues en temps réel lors de leurs premières interactions. À l'échelon supérieur, nous disposons d'une version de Freddy conçue spécialement pour les managers. Un agent conversationnel capable de fournir des analyses poussées sur l'entreprise. Le dispositif fonctionne sur le modèle d'Alexa ou de Siri, mais dans un cadre professionnel. Le manager ou dirigeant d'entreprise peut effectuer des requêtes complexes, du type "Combien de revenus peut-on escompter au troisième trimestre ? ", et l'intelligence artificielle fournit les données sous forme de rapport clair et intelligible.

Au-delà de l'aspect technologique, quel scénario envisagez-vous pour le futur du CRM ?

Lorsque Salesforce s'est lancé, la plupart des technologies d'aujourd'hui étaient inexistantes. Il n'y avait ni marketing automation, ni réseaux sociaux, ni logiciel de messagerie, ni intelligence artificielle... Ainsi, Salesforce a construit une plateforme. Et au fil des années, toutes ces nouvelles technologies sont venues se greffer par-dessus, de sorte qu'on se retrouve avec des stacks CRM extrêmement complexes. Par exemple, si je veux en mettre un en place pour mes équipes de vente, je dois ajouter un logiciel marketing, un logiciel de support, un autre pour le chat, pour l'intelligence artificielle… Les données des clients sont du même coup compartimentées dans différentes bases de données. C'est pourquoi tout le monde parle aujourd'hui de service d'intégration cloud pour tout relier et avoir une vision à 360 degrés des données clients.

Mais si l'on veut vraiment bâtir le futur, pourquoi s'ennuyer à devoir d'abord intégrer séparément différents outils, pour ensuite les lier à l'aide d'un outil supplémentaire ? Notre ambition est donc de faire pour le CRM ce qu'a fait l'iPhone en 2007 dans le domaine de la téléphonie, c'est-à-dire proposer un logiciel d'entreprise qui intègre directement toutes ces technologies existantes. Rassembler ventes, marketing, service client, mais aussi chat, bots et intelligence artificielle en une seule nouvelle plateforme. Le CRM de demain devra intégrer toutes ces technologies déjà disponibles, sous forme digeste et facilement utilisable. Nous donnerons plus de détails sur ce point dans le courant de l'année. Restez attentifs !

]]>
Wed, 26 Aug 2020 14:08:46 +0200https://www.journaldunet.com/ebusiness/crm-marketing/1493071-girish-mathrubootham-ceo-freshworks/Guillaume RenouardJDN
<![CDATA[Fini la Playstation, la future star des consoles de jeux sera l'automobile]]>https://www.journaldunet.com/economie/automobile/1487040-fini-la-playstation-la-future-star-des-consoles-de-jeux-sera-l-automobile/La réalité virtuelle et la réalité augmentée ouvrent de nouvelles perspectives pour les conducteurs et passagers de voitures de plus en plus autonomes.]]>En 2015, Elon Musk affirmait avoir conçu sa Tesla modèle S comme un "ordinateur sur roues". Si la formule a suscité quelques débats, elle traduit une profonde transformation à l'œuvre dans l'industrie automobile. De plus en plus sophistiqués, équipés d'ordinateurs de bord toujours plus puissants, les véhicules d'aujourd'hui ne sont plus de simples moyens de locomotion mécaniques, mais de véritables plateformes de services numériques. Design et technologie sont utilisés pour rendre la conduite plus aisée et plus sûre, ce qui implique de repenser certaines fonctionnalités traditionnelles et… de distraire les passagers.

Tim Smith, directeur automobile et mobilité chez Ustwo, un cabinet de design focalisé sur l'expérience utilisateur dans les nouvelles technologies, a ainsi présenté un jeu vidéo en réalité virtuelle qui propose d'explorer les vestiges d'une ancienne civilisation en évoluant à travers un décor interactif. À l'inverse de ce que l'on trouve dans un jeu traditionnel, le joueur n'est pas entièrement libre de ses mouvements, puisque ceux-ci suivent automatiquement le déplacement du véhicule dans lequel il se trouve, l'objectif étant de lui éviter d'être malade en soignant son oreille interne. "En plus d'éviter au joueur toute sensation inconfortable, ce système est captivant et immersif, il y a quelque chose de magique à se voir évoluer dans un univers virtuel tout en ayant conscience de bouger également dans le monde réel, c'est une stimulation sensorielle inédite qui rend l'expérience très puissante", s'est-il enthousiasmé. Le jeu est également conçu pour embarquer l'utilisateur dans une aventure qui dure approximativement le temps du trajet en voiture.

Un parc d'attractions mobile

Ce filon est également exploré par Holoride, une start-up cofondée par le constructeur allemand Audi pour, selon ses propres mots, faire de la voiture de demain un véritable "parc d'attractions mobile", en exploitant les ressources de la réalité virtuelle. Lors de la dernière édition du CES, à Las Vegas, la jeune pousse a exposé plusieurs jeux vidéo conçus dans cette optique, fruits d'une collaboration avec Disney. Conçus, tout comme celui d'Ustwo, pour adapter l'expérience de jeu aux mouvements de la voiture, ils proposent notamment à l'utilisateur de prendre part à une course automobile dans un monde à l'apparence cartoonesque, qui habille le paysage réel que l'utilisateur voit défiler à travers la vitre. Ou encore de s'immerger dans une bataille entre vaisseaux spatiaux digne d'un film de Star Wars.

En octobre, l'entreprise a permis au public de tester sa technologie lors d'une exposition temporaire à Los Angeles. Les habitants de la cité des anges ont pu tester un autre jeu, développé en compagnie d'Universal Studios et du constructeur Ford. Car si Holoride est un projet monté par Audi, elle entend rendre sa technologie accessible à tous les constructeurs.

Vers la voiture autonome

Ces différents systèmes trouvent des moyens ingénieux d'harmoniser mouvements du véhicule et déplacements dans le monde virtuel sans nuire à l'expérience. Par exemple, dans le jeu de course conçu par Holoride, lorsque le conducteur en chair et en os s'arrête à un feu rouge, la voiture du joueur stoppe également et de petits personnages traversent la rue devant lui, sur lesquels il peut cliquer pour obtenir des bonus.

Une possible entrave à la démocratisation de ce type de dispositifs réside dans le matériel plutôt que dans le logiciel. Les casques de réalité virtuelle sont encore relativement encombrants, et souffrent de certaines limitations qui ont conduit Vitaly Ponomarev, le CEO de WayRay, à développer son pare-brise holographique, conçu comme une alternative. "Je ne crois personnellement pas beaucoup dans l'avenir des casques et lunettes de réalité virtuelle. En plus d'être très coûteux, ils ont pour défaut de limiter le champ de vision, et souffrent de faibles capacités en matière de batterie. En outre, la réalité virtuelle nécessite d'importantes ressources informatiques, qu'il est difficile d'introduire dans un si petit appareil. Ils souffrent donc de limitations techniques. Or, la réalité virtuelle et augmentée devrait précisément être le royaume de l'imagination sans limites", affirme-t-il. En plus de son système conçu pour assister le conducteur, il envisage pour sa part, à l'avenir, de permettre aux passagers de profiter de contenus type films et jeux vidéo en regardant simplement à travers leur vitre passager, à l'aide du même dispositif holographique.

Qu'ils prennent une forme ou l'autre, ces dispositifs pourraient bien monter en puissance à mesure que les recherches sur les véhicules autonomes se poursuivent. D'une part, comme l'illustrent les quelques accidents impliquant des véhicules Tesla en mode autopilote, les logiciels de conduite autonome ne sont pas infaillibles, mais ils marchent suffisamment bien pour que les conducteurs leur accordent une trop grande confiance et relâchent leur attention, ce qui pose des risques importants en matière de sécurité routière. Des systèmes d'assistance à la conduite et de gamification, basés sur les nouvelles technologies, pourraient inciter le conducteur à maintenir son attention braquée sur la route. Et plus tard, lorsque les premiers véhicules véritablement autonomes arriveront sur le marché, les automobiles pourraient devenir des plateformes de contenus à part entière, avec à la clef une course à qui saura le mieux divertir les passagers.

]]>
Tue, 14 Jan 2020 11:53:44 +0100https://www.journaldunet.com/economie/automobile/1487040-fini-la-playstation-la-future-star-des-consoles-de-jeux-sera-l-automobile/Guillaume RenouardJDN
<![CDATA[Les start-up SaaS sont les licornes de demain]]>https://www.journaldunet.com/solutions/dsi/1459174-les-start-up-saas-sont-les-licornes-de-demain/De Lyft à Peloton, en passant par Uber, l'année s'est avérée décevante pour les entrées en bourse. Dans ce contexte morose, les jeunes pousses du logiciel en mode cloud se distinguent par leur dynamisme.]]>2019 devait être l'année des IPOs avec un nombre record d'entreprises stars de la Silicon Valley prenant le chemin de Wall Street. Mais à l'heure où la poussière retombe, l'année semble devenue celle des entrées en bourse ratées. En mai dernier, Uber a réalisé la pire IPO depuis 1975. D'abord vendue 45 dollars pièce, son action est tombée à environ 33 dollars. Son rival Lyft, entré en bourse un mois plus tôt, n'a pas fait beaucoup mieux. Son titre, vendu 72 dollars au départ, a perdu près de la moitié de sa valeur.

Mais les deux VTC n'ont pas été les seuls à souffrir. Peloton, jeune pousse de la Silicon Valley qui commercialise des vélos d'appartement assortis de contenus vidéos, a également vu la valeur de son action sévèrement dévisser depuis ses débuts sur le marché libre américain le 26 septembre dernier. De son côté, WeWork, start-up américaine star des espaces de coworking, a même fait machine arrière. Après une chute drastique de sa valorisation, elle a préféré annuler l'IPO et son emblématique CEO, Adam Neumann, a été remercié. Quant à la start-up Postmates, spécialiste de la livraison entre particuliers, elle a repoussé son entrée en bourse aux calendes grecques.

Les performances des entreprises fraîchement entrées en bourse n'ont pas été aussi mauvaises depuis 1995, d'après le site Investopedia. Les 32 jeunes pousses des nouvelles technologies qui ont fait leurs débuts à Wall Street cette année ont vu leur valorisation grimper de 5% en moyenne. L'an passé, ce chiffre était de +13%. Et en 2017, de +94%...

Jim Cramer, célèbre journaliste télévisuel américain spécialisé dans l'analyse de l'actualité financière, a appelé les entreprises à ne plus réaliser d'IPOs pour le moment, affirmant que celles-ci faisaient peser sur l'économie américaine un risque bien supérieur à celui causé par la concurrence chinoise. Constat partagé par Bob Greifeld, ancien président du Nasdaq, pour qui, derrière cette succession d'IPO décevantes, se profile le spectre d'une nouvelle bulle Internet.

Le logiciel cloud cartonne

Pourtant, si les entrées en bourse des start-up les plus médiatiques ont toutes été décevantes, d'autres ont connu davantage de succès. Les entreprises de logiciel en mode SaaS affichent, dans ce contexte difficile, une insolente réussite. C'est le cas de Datadog. Cette jeune pousse basée à New York, qui propose un logiciel de monitoring des infrastructures IT et applications, a vu sa valorisation grimper de 40% suite à son IPO fin septembre. Ce qui lui a valu d'être approchée par le géant américain Cisco Systems, qui a lui fait une offre (qu'elle a refusée) de rachat de plus de 7 milliards de dollars. Crowdstrike, entreprise de cybersécurité cloud-native, a quant à elle doublé sa valorisation depuis son entrée en bourse en juin dernier. Zscaler, autre spécialiste de la sécurité cloud, enregistre une valorisation boursière trois fois plus supérieure à celle précédant son introduction sur les marchés financiers l'an passé !

"Les start-up les mieux valorisées de la Silicon Valley ont toutes bénéficié de la démocratisation des smartphones et d'un cloud computing à bas prix"

Bien moins médiatiques que les grands noms de la Silicon Valley, ces entreprises BtoB semblent néanmoins constituer un excellent pari pour les investisseurs. Là où Uber, Lyft et Airbnb brûlent chaque année des milliards de dollars pour croître le plus rapidement possible, ces jeunes pousses aux finances plus saines constituent un investissement moins risqué. "Historiquement, le BtoB a toujours été un secteur plus solide qui, sans offrir les meilleures performances, donne de bons retours sur investissement. Chez Amazon, c'est AWS qui génère le plus de profits. Et du côté de Microsoft, le cloud Azure est également en pleine forme", rappelle Richard Holway, président et cofondateur de TechMarketView, un cabinet d'analyse de marché britannique. La conjoncture est en effet très favorable au cloud, marché en pleine croissance depuis plusieurs années. Les revenus tirés du cloud public devraient croître de 17,5% dans le monde en 2019, selon Gartner.

Le modèle du software-as-a-service assure également à ces jeunes pousses un chiffre d'affaires stable et récurrent, ainsi qu'une plus grande résilience par rapport à d'autres entreprises de l'économie de l'abonnement. "Il est difficile pour leurs sociétés clientes de changer de fournisseur puisque d'importantes ressources sont investies dans la mise en place de l'application, la formation à celle-ci, etc. Cela confère à ces acteurs une bonne résilience en cas de ralentissement du marché, bien supérieure à celle des prestataires de solutions sur site (ou on premise, ndlr)", analyse Richard Holway. Enfin, le SaaS ouvre des possibilités de croissance alléchantes. "Les entreprises de logiciel SaaS affichent facilement des marges de plus de 20%. Elles peuvent en outre facilement étendre leurs opérations, puisqu'il est aisé de dupliquer et vendre une application cloud une fois celle-ci conçue. Leurs coûts de marketing et vente sont enfin généralement assez faibles", explique Keith Wright, investisseur et professeur à l'université Villanova.

Les licornes de demain

Pour la journaliste du New York Times Erin Griffith, le succès des acteurs du SaaS, contrastant avec les difficultés des start-up BtoC, plus médiatiques, pourrait être le signe d'une nouvelle ère dans le monde des licornes. "Les start-up les mieux valorisées de la Silicon Valley, catégorie qui compte des noms aussi célèbres qu'Uber et Airbnb, ont toutes bénéficié de la démocratisation des smartphones et d'un cloud computing à bas prix. (...) Mais alors que ces entreprises ont grandi et s'apprêtent à entrer en bourse, les opportunités de chambouler de vieilles industries se font plus rares. Désormais, les start-up du logiciel susceptibles de devenir de futures licornes ont des noms comme Benchling ou Blend. Et elles se concentrent pour la plupart sur des créneaux bien spécifiques, comme l'agriculture, les banques ou la biologie", écrit-elle.

Mais n'enterrons pas trop vite les grandes entreprises BtoC qui se sont étendues par-delà les frontières au cours des dernières années. "Uber et Lyft étaient surévaluées avant leur IPO, et perdent encore d'importantes quantités d'argent. D'autres, comme Stripe, s'en sortent mieux, ou encore Airbnb qui est profitable. Je pense qu'à l'avenir, les investisseurs valoriseront davantage les profits et autres bons indicateurs, comme des flux de trésorerie positifs. Ces deux entreprises pourraient bien réussir leur entrée en bourse, à condition d'ouvrir à un prix raisonnable", prédit Richard Holway.

]]>
Fri, 25 Oct 2019 16:31:05 +0200https://www.journaldunet.com/solutions/dsi/1459174-les-start-up-saas-sont-les-licornes-de-demain/Guillaume RenouardJDN
<![CDATA[Apporter Internet depuis les étoiles, le nouveau pari d'Elon Musk et Jeff Bezos]]>https://www.journaldunet.com/ebusiness/telecoms-fai/1441963-apporter-internet-depuis-les-etoiles-le-nouveau-pari-d-elon-musk-et-jeff-bezos/Grâce à la baisse des coûts de lancement et la miniaturisation des appareils, plusieurs entreprises font renaître la perspective d'un Internet par satellite.]]>Le 4 juillet dernier, jour de la fête nationale américaine, Amazon déposait solennellement auprès de la Commission fédérale des communications une demande d'autorisation pour son ambitieux projet Kuiper. Celui-ci vise à apporter une connexion Internet depuis les étoiles. C'est au total plus de 3 200 satellites que l'entreprise de Jeff Bezos entend déployer, avec pour objectif d'apporter une connexion haut débit aux zones géographiques qui doivent aujourd'hui composer avec un Internet peu rapide, voire sans.

Le géant du commerce en ligne est loin d'être le seul à nourrir des ambitions sur ce marché encore bourgeonnant. Son grand rival, SpaceX d'Elon Musk, a lancé en mai dernier, dans un spectacle pyrotechnique qui a fait le bonheur des spectateurs, les soixante premiers satellites de sa constellation Starlink, qui comptera au total 12 000 appareils.

Aux côtés de ces deux géants, bon nombre de plus petits acteurs entendent également obtenir leur part du gâteau. C'est le cas d'Astranis, jeune pousse installée à San Francisco, qui a levé 13,5 millions de dollars auprès du fonds d'investissement Andreessen Horowitz. De OneWeb, qui est soutenue par les groupes Airbus et Softbank, et prévoit un premier lancement début 2020. Ou encore de Telesat, une entreprise canadienne qui table sur une flotte plus modeste de 512 appareils.

Eliminer la fracture numérique

Si la télévision par satellite existe depuis les années 1980, Internet est aujourd'hui principalement fournis par des installations situées sur terre, et notamment par des câbles sous-marins ou enfouis dans le sol. Si ces infrastructures fonctionnent très bien pour nombre d'entre nous, elles laissent toutefois la moitié de l'humanité sur le carreau. 3,5 milliards d'êtres humains sont ainsi aujourd'hui dépourvus d'un accès à l'internet, selon Northern Sky Research, un consultant spécialisé dans l'industrie du satellite. Pour ces individus, l'absence d'un accès Internet constitue un désavantage considérable. Et si nombre des personnes concernées vivent dans des pays en voie de développement, les zones rurales des pays les plus riches ne sont pas épargnées. Plus d'un quart de la population de l'Alaska vit ainsi dans des zones sans connexion internet ou avec une connexion bas débit.

Pour faire bénéficier aux habitants de ces zones défavorisées d'une connexion rivalisant avec celle des métropoles, les différents acteurs misent sur le déploiement de larges flottes de satellites en orbite bas, soit à quelques centaines de kilomètres d'altitude. Les satellites traditionnels, utilisés par exemple pour la télévision par satellite ou le GPS, sont de leur côté situés à environ 36 000 kilomètres de la surface terrestre, où leur vitesse de rotation est plus ou moins similaire à celle de la terre. Ils font ainsi le tour de l'orbite terrestre une fois par jour, et se trouvent peu ou prou toujours au-dessus du même point par rapport à la surface de la Terre : ces satellites sont pour cette raison qualifiés de géostationnaires.

"L'ennui est qu'à une telle distance, le transfert de données n'est pas suffisamment rapide pour apporter une connexion internet haut débit, et permettre par exemple de jouer à des jeux vidéo en ligne ou de réaliser une visioconférence", explique Carissa Christensen, CEO de Bryce and Technology, un cabinet de conseil spécialisé dans le marché spatial. "C'est pourquoi les jeunes pousses qui souhaitent démocratiser l'Internet par satellite visent une orbite beaucoup plus basse, afin de réduire les problèmes de latence. Toutefois, comme les satellites volent moins haut, la partie du globe qu'ils couvrent est beaucoup plus faible, d'où la nécessité de les déployer sous forme de larges flottes." SpaceX et OneWeb ambitionnent tous deux de proposer un service opérationnel dès 2020. Astranis s'est de son côté allié avec l'entreprise de télécommunications Pacific Dataport en vue de mettre rapidement en place un projet pilote en Alaska.

Une question de taille

Si l'idée d'un Internet par satellite peut sembler familière, c'est parce qu'elle a déjà été tentée. Dans les années 1990, des entreprises comme Teledesic et Globalstar ont investi des dizaines de millions de dollars dans des projets similaires. Mais confrontées à des coûts prohibitifs, elles ne pouvaient proposer une connexion à un prix compétitif, et ont donc fait faillite. Si d'autres acteurs pensent aujourd'hui pouvoir prendre la relève, c'est parce que les coûts d'accès à l'espace ont largement diminué depuis le début des années 2000.

L'entrée en scène de SpaceX a d'abord contribué à faire baisser les coûts de lancement. Wendy Whitman Cobb, analyste spécialisée dans le marché spatial, note ainsi qu'entre les années 1970 et 2000, ceux-ci ont peu évolué, revenant en moyenne à 18 500 dollars par kilogramme. Aujourd'hui, pour une fusée Falcon 9 de SpaceX (celles qui sont par exemple utilisées pour ravitailler la station spatiale internationale), ce coût a été ramené à 2 720 par kilogramme. Résultat : "Avant, 2009, date à laquelle SpaceX a pour la première fois mis en orbite un satellite commercial, on comptait quelques dizaines d'entreprises privées sur le marché spatial. Désormais, elles sont plus de 400", précise Chad Anderson, CEO de Space Angels, un fonds d'investissement spécialisé dans le spatial.

En parallèle, des satellites de petite taille, ou cubesats, on fait leur apparition. De la taille d'un micro-ondes, là où leurs homologues traditionnels sont gros comme un minivan, ils doivent leur essor à la miniaturisation de l'informatique liée au développement du smartphone. Ce sont ces cubesats, peu chers à produire, que SpaceX, Amazon, OneWeb et consorts entendent déployer massivement. Pour réussir, ces entreprises devront toutefois se montrer capables de produire des satellites à très grande échelle, ce qui représente un défi inédit en matière d'organisation de la chaîne de valeur, puisque aucune entreprise n'a encore travaillé sur des quantités de cet ordre. Ainsi, au cours des dix années à venir, ces acteurs prévoient de mettre en orbite davantage de satellites qu'il n'en a été lancé depuis les débuts de la conquête spatiale.

Quelles régulations pour l'espace ?

Autant dire que l'orbite terrestre risque de devenir de plus en plus peuplée, ce qui ne va pas sans poser un certain nombre de problèmes. Contrairement aux satellites géostationnaires, qui, en plus d'être beaucoup moins nombreux, ne bougent pas les uns par rapport aux autres, ces minisatellites auraient de bonnes chances de se rentrer dedans. Glenn Peterson, chercheur à l'Aerospace Corporation, a calculé que si les différents projets de constellation fonctionnaient comme prévu, ils généreraient pas moins de 67 000 risques de collision chaque année. Pour les différents opérateurs de ces flottes de satellites, cela impliquerait de réaliser des centaines de manœuvres par jour afin d'éviter tout risque d'impact.

Or, changer la trajectoire d'un satellite, en plus de représenter un petit défi technique, mobilise des ressources humaines et énergétiques. Un manque à gagner important pour ces entreprises, et susceptible de menacer leur modèle économique. En outre, chaque minisatellite dispose de ressources énergétiques limitées, il est donc possible qu'en cas de collision imminente, les opérateurs n'aient d'autre choix que d'assister impuissants à l'impact. Avec, à la clef, des débris susceptibles de retomber sur terre ou d'endommager les satellites environnants. Dans ce contexte, les appels à mettre en place des régulations internationales susceptibles d'encadrer l'usage du ciel se multiplient.

]]>
Wed, 04 Sep 2019 15:46:48 +0200https://www.journaldunet.com/ebusiness/telecoms-fai/1441963-apporter-internet-depuis-les-etoiles-le-nouveau-pari-d-elon-musk-et-jeff-bezos/Guillaume RenouardJDN
<![CDATA[Facebook, futur pourvoyeur de passeports numériques ?]]>https://www.journaldunet.com/media/publishers/1440314-facebook-futur-pourvoyeur-de-passeports-numeriques/Enfouies dans le white paper du Libra, deux phrases indiquent que le réseau social envisage la mise en place d'un système permettant à chacun de facilement prouver son identité en ligne.]]>"On the Internet, nobody knows you're a dog" (" Sur Internet, personne ne sait que tu es un chien ") : le célèbre dessin paru dans le New Yorker sous la plume de Peter Steiner, en 1993, représentant un chien pianotant sur un clavier d'ordinateur tout en s'adressant à l'un de ses congénères, est devenu un classique de la culture web. La toile est en effet, depuis ses débuts, le royaume de l'anonymat, ce qui comporte de nombreux avantages, mais peut aussi tourner au casse-tête lorsqu'il s'agit de prouver son identité en ligne. En la matière, les choses ont peu évolué depuis les débuts d'Internet : on se contente de présenter une copie au format numérique de ses documents officiels. Et pour se connecter à ses différents comptes, on s'appuie encore et toujours sur les bons vieux mots de passe.

Mais dans le white paper relayé par Facebook, détaillant son projet de monnaie digitale, le libra, deux phrases pourraient bien annoncer une petite révolution dans ce domaine. Celles-ci se trouvent en haut de la page 9, dans la partie consacrée au consortium qui sera chargé de gérer la monnaie : "L'objectif de l'association est également de développer et promouvoir un standard d'identité ouvert. Nous pensons qu'une identité digitale mobile et décentralisée est un prérequis pour l'inclusion et la compétition financière."

L'identité digitale pour tous

Si elles ne constituent qu'une petite fraction du livre blanc, ces deux phrases ont été relevées par certains commentateurs comme la partie le plus révolutionnaire de celui-ci. À quoi pourrait bien ressembler une identité digitale mobile et décentralisée ? "L'identité, d'un point de vue légal, peut se définir comme un ensemble de certifications délivrées par des personnes tierces : diplômes, permis de conduire, passeport, credit score, etc.", explique Peter van Valkenburgh, directeur de la recherche au Coin Center, une organisation à but non lucratif qui fait de l'évangélisation autour de la blockchain. "Or, sur Internet, les différentes institutions conservent ces informations indépendamment, dans leurs propres bases de données. Il serait bien plus efficace d'unifier tous ces certificats au même endroit, pour permettre à l'individu de fournir facilement ces différents documents lorsqu'il en a besoin. C'est ce que l'on nomme l'identité digitale. Avant l'émergence de la blockchain, cela supposait toutefois de faire confiance à une entité centrale qui aurait la main sur ces données, sur le modèle de ce que font Google et Facebook par exemple, qui permettent de s'identifier sur différents sites via les fonctions "s'identifier avec …", sans rentrer à chaque fois son mot de passe. Mais comme ces informations sont très sensibles, peu de personnes seraient prêtes à en confier la gestion à un seul acteur. La blockchain, base de données sécurisée et décentralisée, constitue une solution très attractive, qui offrirait aux internautes tout le confort présenté par l'identité digitale, tout en conservant la souveraineté sur leurs données. C'est l'idée qui semble esquissée par Facebook dans son livre blanc."

Une potentielle manne financière

Un tel système fonctionnerait sur le modèle d'un portefeuille de cryptomonnaies, auquel Facebook donne le nom de Calibra. Il pourrait, à terme, permettre de prouver facilement son identité en ligne, par exemple pour voter ou louer un véhicule. Mais aussi de s'authentifier sur n'importe quel site en un clic, sans taper chaque fois un mot de passe différent. Il aurait l'avantage de constituer une nouvelle source de revenus pour le réseau social de Mark Zuckerberg, à l'heure où ce dernier, face à la multiplication des scandales liés à l'exploitation des données personnelles, cherche à réorienter le modèle d'affaires de son entreprise.

"Avec un système d'authentification, même basique, le portefeuille Calibra pourrait rendre les vérifications de routine plus rapides et plus simples pour tout un tas de nouveaux services financiers", affirme Lawrence Lundy-Bryan, directeur de la recherche chez Outlier Ventures, un cabinet d'investissements spécialisé dans la blockchain. "Cela permettrait à Facebook de prélever des frais aux prestataires de services financiers en échange de la prise en charge des vérifications d'identité nécessaires. De quoi constituer une nouvelle source de revenus susceptible d'accompagner le passage de la plateforme vers un modèle plus respectueux de la vie privée."

Un dispositif d'identité digitale pourrait également venir en aide aux plus démunis. De nombreuses personnes dans le monde n'ont ni papiers d'identité ni titres de propriété. Il peut s'agir d'individus vivant dans des pays pauvres, où l'administration n'opère pas efficacement sur tout le territoire, ou de réfugiés qui ont dû fuir leur pays sans rien pouvoir emporter. Dans les deux cas, le fait de ne pas pouvoir prouver son identité, ses titres de propriété ou ses diplômes complique considérablement l'accès à l'économie. Qu'il s'agisse d'ouvrir un compte en banque, de demander un prêt ou encore de postuler à un emploi. Avec un système d'identité digitale sécurisée, toutes ces informations pourraient être mises en ligne et stockées de manière inaltérable dans une blockchain.

Une question de confiance

Facebook a l'avantage de bénéficier d'une certaine expertise en matière d'expérience utilisateur. Là où la plupart des projets construits sur la blockchain requièrent des compétences poussées en informatique pour la prise en main, Facebook a les moyens de proposer un système simple d'utilisation à sa communauté. En outre, contrairement à d'autres projets d'identité digitale sur la blockchain lancés par des jeunes pousses, comme uPort ou Evernym, Facebook compte 2,38 milliards d'utilisateurs dans le monde. Or, pour qu'un tel dispositif fonctionne, l'effet réseau est essentiel. "Un système qui ne permettrait de s'identifier que sur un ou deux sites n'aurait aucun intérêt, il faut que cela fonctionne partout", affirme Peter van Valkenburgh.

Toutefois, de nombreux points restent à éclaircir. Se pose d'abord la question du passage à l'échelle, l'une des faiblesses des protocoles existants sur la blockchain. Bitcoin ne permet que sept transactions par seconde, contre une trentaine pour Ethereum. C'est loin d'être suffisant si l'on veut fournir aux milliards d'internautes dans le monde un outil leur permettant de s'identifier facilement sur différents sites. Mais la question principale est bien sûr celle du respect de la vie privée.

Facebook va ainsi devoir gagner la confiance du public, à l'heure où son bilan en matière de gestion des données personnelles s'avère peu reluisant. Dans ce contexte, les utilisateurs seront-ils prêts à lui confier leurs papiers d'identité ? "Facebook a tenté d'apaiser ces inquiétudes à travers la fondation Libra. Ils pourraient aller plus loin en utilisant des standards ouverts déjà existants, comme Sovrin, et en échangeant de manière transparente avec la communauté qui s'intéresse à l'identité digitale. Mais le projet risque malgré tout d'être perçu comme la tentative mise en œuvre par une entreprise pour prendre le contrôle de la monnaie et de l'identité. Les gouvernements pourraient juger que Facebook est déjà trop puissant et refuser de lui laisser cette opportunité", prédit Lawrence Lundy-Bryan.

]]>
Wed, 10 Jul 2019 11:49:31 +0200https://www.journaldunet.com/media/publishers/1440314-facebook-futur-pourvoyeur-de-passeports-numeriques/Guillaume RenouardJDN
<![CDATA[Charles Giancarlo (Pure Storage) : "C'est aux applications d'aller aux données et non plus l'inverse"]]>https://www.journaldunet.com/solutions/cloud-computing/1440216-charles-giancarlo-pure-storage/Pure Storage, un des leaders dans le domaine des solutions de données, ambitionne d'apporter davantage de transparence dans l'industrie à l'ère du multicloud. Rencontre avec son CEO.]]>JDN. Pure Storage est aujourd'hui valorisée 1,5 milliard de dollars et connaît une croissance d'environ 30% par an, un chiffre impressionnant dans votre industrie. Comment l'expliquez-vous ?
Charles Giancarlo est le CEO de Pure Storage. © Pure Storage

Charles Giancarlo. Je crois que cela tient notamment au fait que nous avons vu avant les autres que l'avenir du stockage résidait dans le flash. Lorsque Pure Storage a été créée en 2009, cette technologie était considérée comme très peu fiable et n'était utilisée que dans quelques environnements bien précis, comme la téléphonie. Le stockage, lui, reposait encore sur des disques rotatifs, seule partie des ordinateurs qui demeurait mécanique. Pure Storage avait la conviction que le flash pouvait constituer la technologie de stockage du futur, et nous avons intégralement pensé notre logiciel dans cette optique, afin d'accentuer les forces du flash et diminuer ses faiblesses. Depuis, la technologie SSD a émergé, mais les entreprises qui y ont recours se sont contentées de prendre leurs produits existants et de remplacer le disque rotatif par cette technologie. C'est-à-dire par prendre un semiconducteur et l'utiliser comme un appareil mécanique, ce qui est inefficace par nature. Si leur technologie est moins chère, la nôtre est plus rapide, plus efficace, plus dense et plus fiable.

On est tenté d'en conclure que le stockage est une dimension quelque peu négligée dans le monde de l'informatique…

Tout à fait. Ce n'est pas l'aspect auquel on pense le plus au quotidien, mais il s'agit pourtant d'une composante fondamentale. Un ordinateur se décline en trois dimensions. Le processeur, industrie aujourd'hui dominée par Nvidia et Intel. Le réseau, qui permet aux ordinateurs de communiquer entre eux, et sur lequel on trouve des entreprises comme Cisco ou Arista. Et enfin le stockage des donnée. Et si celui-ci ne tient pas la distance face au processeur et au réseau, des goulets d'étranglement se forment, ralentissant les progrès de l'informatique.

Votre technologie est employée dans de nombreuses industries, mais les usages autour de l'intelligence artificielle semblent compter parmi les plus prometteurs.

Justement parce que cette technologie implique de transférer les données le plus rapidement possible. L'intelligence artificielle repose sur des processeurs graphiques qui traitent les données, et pour une efficacité maximale, il faut s'assurer d'un afflux constant. Si le transfert entre l'unité de stockage et le processeur est trop long, celui-ci demeure momentanément inactif, et comme on parle de machines très coûteuses et d'immenses quantités de données, on veut éviter de perdre du temps. Notre technologie permet de se prémunir contre cet écueil, et nous avons constaté notre réussite auprès de nos clients dans plusieurs secteurs d'activité, y compris l'industrie automobile, avec les progrès en matière de conduite autonome.

Nous collaborons également avec Man AHL, un fonds d'investissement britannique qui s'appuie sur des modèles mathématiques : les décisions sont prises uniquement par ordinateur, sans intervention humaine, pour effectuer des simulations et prendre des décisions d'investissement. Grâce à notre technologie, il est maintenant possible d'exécuter plus de simulations plus rapidement, ce qui accélère le délai de mise sur le marché. Un laboratoire de recherche canadien, PaigeAI, a également recours à notre technologie de stockage pour analyser plus efficacement l'évolution d'un cancer grâce à l'IA.

En 2009, vous avez su voir que l'avenir du stockage résidait dans le flash. Dix ans plus tard, comment envisagez-vous le futur de l'industrie ?

"Nous voulons donner à nos clients des choix qui leur permettent d'unifier différents clouds"

Je pense que les solutions hybrides, combinant stockage cloud et sur site, vont prendre de plus en plus d'importance afin d'offrir davantage de flexibilité au consommateur. Nous sommes aujourd'hui face à un phénomène intéressant. Il y a encore dix ans, les applications étaient statiques et cantonnées à du hardware conçu spécifiquement pour elles. Les données, elles, étaient mobiles et évoluaient facilement entre ces différents environnements. Aujourd'hui, c'est l'inverse : les applications sont fluides et peuvent être déployées n'importe où, notamment grâce à des outils comme Kubernetes et Docker. Mais les données, elles, prennent une place toujours plus conséquente, car nous en générons et traitons toujours davantage.

C'est donc aux applications d'aller aux données, et non plus l'inverse, ce qui implique de repenser totalement l'architecture des centres de données et des applications. Nous nous efforçons donc d'adapter notre solution pour refléter cette nouvelle réalité, offrir aux clients la possibilité de choisir la localisation optimale pour leurs données, et les traiter de manière efficace.

À l'automne dernier, vous avez dans cette optique annoncé votre stratégie autour du cloud hybride, ainsi que plusieurs services dans ce sens, dont un partenariat avec AWS...

En effet, dans l'objectif de procurer davantage de transparence aux clients. Aujourd'hui, lorsqu'une entreprise souhaite migrer le traitement de ses données sur le cloud, elle finit par faire un compromis technologique et repenser fondamentalement ses applications. Notre ambition est d'harmoniser les environnements cloud et sur site afin d'offrir davantage de flexibilité, de permettre aux clients de prendre ce type de décisions uniquement en fonction de critères économiques et préférentiels, et non plus technologiques.

Google a également fait des annonces dans ce sens lors de sa dernière conférence Google Cloud Next à San Francisco…

Le problème est que les différents acteurs cloud souhaitent se différencier les uns les autres, ils n'offriront donc jamais aux consommateurs une parfaite transparence d'un cloud à l'autre. C'est pourquoi nous voulons donner à nos clients des choix qui leur permettent d'unifier différents clouds et de savoir où se trouvent leurs données. Surveillez nos prochaines annonces à ce sujet en septembre à Accelerate, notre conférence annuelle utilisateurs…

Pensez-vous que le cloud finira par remplacer le stockage et le traitement des données sur site ?

"Le RGPD va jouer un rôle important"

Non, et pour plusieurs raisons. Le prix, d'abord. Les fournisseurs cloud sont des acteurs économiques comme les autres, il n'est pas dans leur intérêt de baisser les prix au-dessous d'un certain seuil. Or, si votre application n'a pas spécialement besoin des fonctionnalités du cloud, que vous voulez simplement la faire tourner en permanence de manière homogène, il sera toujours moins cher de le faire sur votre propre environnement. La personnalisation, ensuite. Le cloud est conçu de manière générique, et les applications dotées d'une architecture très spécifique fonctionnent de manière plus efficace sur site. Vient enfin la question des régulations, qui peuvent conduire à conserver ses données sur site pour exercer un plus grand contrôle sur elles. Je pense donc qu'il y aura toujours un équilibre entre ces deux options.

Pensez-vous que la mise en place de régulations va jouer un grand rôle dans l'avenir du stockage ?

Je le crois, oui. La sécurité et la confidentialité des données sont incontestablement à l'ordre du jour. Le RGPD va jouer un rôle important. On compte aussi des réglementations dans le domaine militaire et gouvernemental. Au niveau national, on parle beaucoup de la souveraineté des données… Tout cela ne va pas stopper l'expansion du cloud, mais influer sur la manière dont il est pensé et construit.

Et aussi

]]>
Thu, 04 Jul 2019 18:02:18 +0200https://www.journaldunet.com/solutions/cloud-computing/1440216-charles-giancarlo-pure-storage/Guillaume RenouardJDN
<![CDATA[Sean Liu (Facebook) : "Avec Quest et Rift S, notre offre peut satisfaire quiconque s'intéresse à la réalité virtuelle"]]>https://www.journaldunet.com/solutions/dsi/1423915-sean-liu-facebook/A l'occasion de Facebook F8, le head of Oculus Hardware du réseau social a répondu à nos questions sur la stratégie de Facebook autour de la réalité virtuelle.]]>JDN. Durant sa keynote lors de la conférence F8 le 30 avril, Mark Zuckerberg a annoncé que deux casques de réalité virtuelle, l'Oculus Rift S et l'Oculus Quest, seraient disponibles à partir du 21 mai prochain. Quelle est votre ambition avec ces deux nouveaux produits ?
Sean Liu est head of Oculus Hardware chez Facebook. © Facebook

Sean Liu. Avec Quest et Rift S, qui viennent en complément d'Oculus Go, lancé l'année dernière, nous disposons désormais d'une offre éclectique, susceptible de satisfaire quiconque s'intéresse à la réalité virtuelle. Nous sommes convaincus que les produits tout-en-un sont la clef pour rendre cette technologie plus accessible, c'est pourquoi l'Oculus Quest a été pensé pour offrir une expérience de jeu confortable en réalité virtuelle, sans qu'il soit nécessaire de disposer d'un ordinateur. Ceux qui, de leur côté, possèdent un PC taillé pour jouer aux jeux vidéo et souhaitant se faire la main sur le nec plus ultra de la technologie, avec les graphismes les plus performants, se tourneront plutôt vers le Rift S. Et pour ceux qui désirent simplement visionner des contenus en réalité virtuelle, l'Oculus Go constitue une bonne option, à un prix abordable.

Si ces produits sont en premier lieu destinés aux joueurs qui souhaitent faire l'expérience de la réalité virtuelle, nous sommes également conscients du fait que leur usage ne se cantonne pas aux jeux vidéo. Nous avons, par exemple, annoncé un nouveau programme Oculus for Business lors de la conférence, où Oculus Quest sera intégré à notre offre entreprise. Ce programme est conçu pour apporter la réalité virtuelle sur le lieu de travail et sera lancé plus tard dans l'année.

Quelle est la prochaine étape pour Oculus, maintenant que ces deux casques ont été annoncés ?

Nous travaillons dur en prévision du lancement officiel le 21 mai prochain, afin que tout soit prêt pour mettre ces deux produits entre les mains de notre communauté, et nous sommes impatients de voir comment ils seront reçus. Une fois les produits lancés, notre objectif sera d'apporter de nouveaux jeux et de nouvelles fonctionnalités à la plateforme.

Cela fait désormais cinq ans que Facebook a racheté Oculus, et trois que l'Oculus Rift a été lancé. Quelles évolutions avez-vous constatées sur le marché de la réalité virtuelle et augmentée au cours de ces quelques années ? La technologie a-t-elle progressé aussi vite que vous l'attendiez ? Quid de l'adoption par les utilisateurs ?

La vitesse de progression dépend de la manière dont vous considérez les choses. Lorsque l'Oculus Rift a été lancé, par exemple, il fallait une manette de jeu pour jouer à The Climb (un jeu d'escalade, ndlr). Désormais, l'Oculus Touch permet de s'en passer (Le joueur effectue des mouvements naturels avec ses mains au lieu de pianoter sur une manette, ndlr).

"Avec l'Oculus Quest, les utilisateurs n'ont qu'à enfiler le casque pour se retrouver complètement immergés dans un monde virtuel"

Le rythme d'innovation est ce qui rend l'industrie de la réalité virtuelle si enthousiasmante : celle-ci se trouve aujourd'hui à des années-lumière de ce qu'elle était il y a seulement quelques années. Songez, par exemple, qu'il y a encore deux ans, le tracking inside-out (Capteurs et caméras intégrés au casque détectent la position et les mouvements de l'utilisateur, ndlr) semblait impossible. Désormais, nous sommes capables d'offrir une expérience de mouvement complète dans plusieurs jeux, avec l'Oculus Quest et l'Oculus Rift S. Des titres comme La Colère d'Asgard ou Stormland vont bien plus loin que ce que nous aurions cru possible en si peu de temps.

Pour ce qui est de l'adoption, nous avons constaté que 87% des propriétaires d'Oculus Go ne possédaient pas d'appareil Oculus auparavant, ce qui montre que nous sommes en train de gagner un nouveau public à l'univers de la réalité virtuelle. La simplicité de la formule tout-en-un permet aux nouveaux entrants de facilement s'immerger dans le jeu. Nous pensons, en outre, que l'Oculus Quest va démarrer un nouveau chapitre pour le jeu vidéo en réalité virtuelle, et nous sommes impatients de voir comment les choses vont évoluer.

Malgré tout, il semble que la réalité virtuelle et augmentée soit encore à un stade très précoce. La technologie a sans conteste su conquérir un groupe d'amateurs, mais n'a pas encore touché le grand public ni atteint son plein potentiel. Quels sont, selon vous, les principaux obstacles à sa croissance ?

Lors de l'événement Oculus Connect 5, Mark Zuckerberg a affirmé que franchir la barre des dix millions d'utilisateurs constituerait un seuil décisif pour la réalité virtuelle, notre objectif est donc de proposer des appareils qui s'adressent au public le plus large possible. Cela signifie mettre l'accent sur l'ergonomie et la facilité d'utilisation, sans oublier que le prix constitue aussi un facteur important. Nous avons voulu jouer sur ces différents tableaux avec l'Oculus Quest : les utilisateurs n'ont qu'à enfiler le casque pour se retrouver complètement immergés dans un monde virtuel, sans être reliés à des câbles ni connectés à un ordinateur. C'est vraiment une expérience magique, et nous sommes impatients de découvrir la réaction du public.

"Oculus for Business est taillé pour apporter la réalité virtuelle au travail"

Mais l'Oculus Quest n'est lui-même qu'une étape sur le long chemin pour faire de la réalité virtuelle une véritable plateforme informatique, et nous continuons de pousser la recherche dans ce domaine. Ainsi, l'équipe du Facebook Reality Labs a profité de cette édition de Facebook F8 pour présenter une partie de ses travaux visant à produire des avatars ultra-réalistes, qui permettent à l'utilisateur de disposer de son double dans le monde virtuel. C'est vers des projets de ce genre que nous comptons orienter nos recherches à plus long terme.

Selon vous, quels seront les usages les plus prometteurs de la réalité virtuelle et augmentée dans le monde professionnel ?

Nous sommes pour l'heure encore en train d'explorer le potentiel de cette technologie, il est donc difficile de donner une réponse définitive pour le moment. Cependant, la valeur ajoutée de la réalité virtuelle - immersion, interactivité, répétabilité et capacité à passer à l'échelle - en fait un outil totalement unique pour le monde du travail.

Nous avons découvert des usages prometteurs à travers notre programme Oculus for Business, depuis la facilitation de la collaboration jusqu'à la création de programmes de formation. Des entreprises comme Osso VR ont découvert que les chirurgiens voyaient leur performance accrue à 230% lorsqu'ils recourent à la réalité virtuelle, plutôt qu'à d'autres méthodes, pour se former. Ils travaillent désormais avec 15 000 partenaires qui utilisent leur plateforme pour la formation, dont UCLA, l'université Vanderbilt et la Harvard Medical School.

]]>
Mon, 13 May 2019 14:31:58 +0200https://www.journaldunet.com/solutions/dsi/1423915-sean-liu-facebook/Guillaume RenouardJDN
<![CDATA[Avec Android Q, Google tente de rattraper son retard sur la privacy]]>https://www.journaldunet.com/ebusiness/telecoms-fai/1423913-android-q-google-met-l-accent-sur-la-cybersecurite/Lors de la dernière édition de Google I/O, l'entreprise a dévoilé la mise à jour à venir pour la prochaine version d'Android, où sécurité et protection de la vie privée sont mises au premier plan.]]>Nouvelle édition de Google I/O, nouvelle mouture d'Android. Cette année, il s'agit d'Android Q, qui sera disponible à l'automne et dont les principales fonctionnalités ont été largement présentées lors de la grand-messe annuelle de Google du 7 au 9 mai 2019. "Nous souhaitons faire en sorte que Google bénéficie à tous, ce qui implique notamment de garantir que nos produits soient sécurisés et respectent la vie privée des utilisateurs", a affirmé Sundar Pichai lors de la keynote d'ouverture. "C'est pourquoi, par le passé, nous avons mis en place des fonctionnalités comme le mode Incognito et Google Takeout, et nous continuons de travailler dans ce sens pour nous adapter aux attentes de nos clients, qui évoluent en permanence."

Le déploiement des patchs s'accélère

Android Q sera livré avec une foule de fonctionnalités visant à renforcer la sécurité des données utilisateurs et fournir à ces derniers des outils intuitifs pour protéger leur vie privée. Cela passe d'abord par un nouveau dispositif, baptisé Projet Mainline, qui va permettre à Google de déployer plus rapidement ses patchs de sécurité. Chaque mois, l'entreprise effectue une mise à jour dans ce domaine, mais celle-ci n'atteint pas immédiatement les utilisateurs. En effet, Google doit d'abord passer par les constructeurs de téléphone, ce qui peut parfois causer des délais importants. A contrario, sur iOS, les mises à jour sont immédiatement effectives sur tous les appareils d'Apple. Le projet Mainline vise à pallier cette faiblesse d'Android par rapport à son concurrent direct. Désormais, 14 modules différents du système d'exploitation, en lien avec la sécurité, pourront être mis à jour directement via le Google Play Store, permettant à Google de s'affranchir des intermédiaires et de corriger immédiatement toute faille sécuritaire aussitôt qu'elle sera repérée. Pour les téléphones Android n'ayant pas accès au Google Play Store (ce qui est le cas en Chine, par exemple), Google rendra les mises à jour accessibles en logiciel libre.

"Notre objectif est de procurer aux utilisateurs de meilleurs services avec moins de données, en nous appuyant sur nos progrès en IA"

Si cette nouvelle fonctionnalité restera globalement invisible pour la plupart des utilisateurs, elle devrait permettre à Google de mieux limiter les failles.

D'autres nouveautés, en revanche, seront directement perceptibles par les utilisateurs finaux. Android Q mettra entre les mains de ces derniers une interface simple, leur permettant de bloquer l'accès des applications qui ne sont pas en cours d'utilisation à leurs données de géolocalisation. Là encore, Google rattrape son retard sur Apple, qui propose déjà cette fonctionnalité depuis plusieurs années. En outre, chaque fois qu'une application utilisera la géolocalisation de l'utilisateur, une notification permettra à celui-ci d'en être averti. "La géolocalisation est très utile pour un certain nombre de services, mais il s'agit aussi de l'une des informations les plus personnelles qui soient, c'est pourquoi nous avons voulu donner à l'utilisateur la possibilité de facilement contrôler qui y a accès. Par exemple, si vous souhaitez vous faire livrer une pizza, vous avez l'option d'autoriser l'application de livraison à accéder à vos données de localisation jusqu'à ce que la commande soit livrée, après quoi l'accès sera automatiquement désactivé", a commenté Sundar Pichai.

Une problématique sur toutes les lèvres

Google va également intégrer un nouvel onglet "vie privée" dans les paramètres Android, permettant à l'utilisateur de contrôler facilement quelles applications ont accès à ses données personnelles. Enfin, Google mise également sur le traitement des données on-device, pour limiter la collecte et le transfert de données personnelles vers le cloud. "Notre objectif est de procurer aux utilisateurs de meilleurs services avec moins de données, en nous appuyant sur nos progrès en intelligence artificielle. C'est ce que nous nommons le federated learnin : au lieu de collecter les données brutes sur l'appareil de l'utilisateur, pour ensuite les transférer et les traiter dans le cloud, nous apportons l'apprentissage machine directement sur l'appareil. Les données sont ainsi traitées en local", a expliqué Sundar Pichai, ajoutant que ce système fonctionne déjà pour repérer de nouveaux mots utilisés et les ajouter au dictionnaire Google, afin que le logiciel d'autocorrection en tienne compte.

L'accent mis par Google sur la cybersécurité et la défense de la vie privée n'a pas vraiment de quoi surprendre, tant ces deux thèmes se trouvent actuellement au premier plan dans l'actualité des nouvelles technologies. Depuis le scandale Cambridge Analytica, révélé il y a un an, les affaires se sont multipliées. En septembre 2018, Google a avoué que des centaines d'entreprises tierces avaient pu accéder aux données Gmail des utilisateurs. En janvier dernier, le public a découvert que Facebook et Google avaient mis en place des programmes consistant à rémunérer des volontaires (dont certains mineurs de cryptomonnaies) pour espionner leurs activités sur leur téléphone, photos et conversations privées incluses. Face à cette situation, les autorités commencent à hausser le ton. Facebook est actuellement dans l'attente d'une amende qui doit lui être infligée par la Federal Trade Commission américaine pour violation de la vie privée des utilisateurs. Elle pourrait chiffrer jusqu'à cinq milliards de dollars. La candidate démocrate à la présidentielle Américaine Elizabeth Warren a carrément appelé à démanteler les Gafa.

Android à l'ère de la 5G

Dans ce contexte, les géants des nouvelles technologies ont tout intérêt à prendre les devants, à la fois pour rassurer le public et se prémunir contre de trop sévères sanctions. Apple a, depuis un an, largement axé sa communication autour de la protection de la vie privée des utilisateurs. Le terme privacy (ou vie privée) était sur toutes les lèvres lors de la conférence annuelle Facebook F8, qui s'est tenue les 30 avril et 1er mai derniers. À travers ces différentes fonctionnalités autour d'Android Q, Google montre à son tour qu'il a bien pris conscience de l'ampleur du problème. Le 7 mai dernier, jour de lancement de Google I/O, Sundar Pichai s'est également fendu d'une tribune parue dans le New York Times, où il expose la vision de son entreprise quant à la sécurité des données. Il y affirme notamment que la protection de la vie privée doit être accessible à tout le monde, et pas seulement à ceux qui ont les moyens d'acquérir des produits de luxe. Beaucoup y ont vu une pique adressée à Apple, dont le prix des téléphones ne cesse d'augmenter d'un modèle à l'autre. Il affirme également que la collecte des données utilisateurs doit se traduire par des services utiles pour ces derniers, citant l'assistant Google et Google Maps. Sundar Pichai a, enfin, appelé à davantage de régulations pour protéger les données personnelles.

Contrairement à Apple, dont les revenus viennent principalement de la vente de produits, Google fait son beurre grâce à la publicité ciblée, qui passe par l'exploitation des données. Tout comme Facebook, l'entreprise aura donc davantage de mal à convaincre le public qu'elle prend la vie privée très au sérieux, mais les diverses mises à jour Android constituent un premier pas. Outre les nouvelles fonctionnalités orientées cybersécurité, Android Q proposera également un"dark theme", visant à économiser la batterie, un impressionnant système de traduction instantanée sur fichiers audio et vidéo, un contrôle parental, et un mode "focus" permettant de couper les notifications. Enfin, cette nouvelle mouture prépare aussi le terrain pour la 5G. "Android Q est conçu pour supporter la 5G", a ainsi affirmé Sundar Pichai. Un partenariat avec le fabricant de processeurs Qualcomm a également été annoncé autour de cette technologie.

]]>
Fri, 10 May 2019 11:57:27 +0200https://www.journaldunet.com/ebusiness/telecoms-fai/1423913-android-q-google-met-l-accent-sur-la-cybersecurite/Guillaume RenouardJDN
<![CDATA[Thomas Kurian (CEO, Google Cloud) : "Notre ambition est de proposer un cloud ouvert... sur tous les clouds"]]>https://www.journaldunet.com/solutions/cloud-computing/1423610-thomas-kurian-ceo-google-cloud/Multicloud, logiciel libre, cybersécurité… Le nouveau patron de Google Cloud, rencontré lors de la dernière édition de l'événement Google Cloud Next, expose sa vision de l'avenir.]]>JDN. Pour cette édition 2019 de Google Cloud Next, vous avez annoncé le lancement de la plateforme de cloud hybride Anthos. À quelle ambition entend-elle répondre ?
Thomas Kurian est le CEO de Google Cloud. © Google

Thomas Kurian. La plateforme Anthos va permettre à nos clients de déployer des applications sur différents environnements, sans que les développeurs soient chaque fois contraints de se familiariser avec les APIs correspondantes. Une fois l'application créée, elle peut être déployée sur Google cloud, mais aussi sur d'autres clouds publics, comme AWS ou Azure, et même en local sur site. Nous avons mis en place cette solution multicloud pour plusieurs raisons, et en premier lieu pour répondre à un besoin fréquemment exprimé par nos clients, qui découle du manque de main-d'œuvre. Parce que les talents sont limités, il est important pour eux de n'avoir à développer la technologie qu'une seule fois, pour ensuite pouvoir l'utiliser partout, sans devoir réécrire la moindre ligne de code.

Il faut également rappeler qu'aujourd'hui, malgré le décollage du cloud, 80% des applications sont encore sur site. Il est donc important de proposer à nos clients une technologie qui fonctionne avec leurs installations existantes, et leur permette ensuite de migrer facilement vers le cloud lorsqu'ils sont prêts. Cela permet également aux utilisateurs de ne pas rester prisonniers d'un seul fournisseur cloud, et de pouvoir migrer s'ils estiment qu'un autre correspondrait mieux à leurs besoins. Notre ambition est de proposer un cloud ouvert, pour offrir davantage de choix aux clients. À nous, ensuite, de leur proposer une solution qui soit la meilleure et la plus facile d'adoption afin qu'ils nous choisissent.

Dans certaines industries, cette flexibilité revêt un aspect encore plus capital. Dans la banque, par exemple, où les régulations changent en permanence, une application qui peut aujourd'hui être déployée sur un cloud public devra peut-être demain être mise sur un cloud privé pour respecter la loi, c'est pourquoi il est capital de laisser aux clients la possibilité de redéployer facilement leurs applications, en particulier dans ce domaine. Enfin, Anthos permet d'harmoniser sécurité, surveillance et compliance dans les différents environnements.

Si par exemple, je choisis de stocker mes données sur AWS ou Azure, puis-je utiliser des services Google Cloud, par exemple Google AI, pour traiter ces données, sans avoir à les transférer au préalable sur Google Cloud ?

Absolument. Nous avons des clients qui recourent à l'un de ces deux fournisseurs pour stocker leurs données tout en recourant à Google AI, d'autres les stockent en local et se servent également de Google AI… Notre offre d'IA tourne sur Anthos, et Anthos peut être déployé indifféremment sur plusieurs fournisseurs cloud.

Vous avez également mis l'accent sur le logiciel libre, en annonçant un partenariat avec sept pointures du domaine...

Nous sommes convaincus que le succès d'une plateforme ne repose pas seulement sur l'entreprise qui la propose, mais aussi sur la richesse des partenaires accessibles via cette plateforme. C'est pourquoi nous avons voulu bâtir un premier écosystème qui permette à nos partenaires fournisseurs de solutions open source de croître et de monétiser leur développement logiciel, le tout en bénéficiant de l'expertise de Google.

Google Cloud travaille également sur plusieurs solutions visant à répondre à des besoins concrets dans certaines industries. Pourriez-vous donner des exemples ?

Prenons le secteur de la santé. Aujourd'hui, de nombreuses organisations s'efforcent de repenser le carnet de santé, afin d'intégrer et harmoniser les données détenues par tous les professionnels du secteur. Pour l'heure, lorsque vous vous rendez chez votre médecin traitant, il dispose de vos informations de santé sur un fichier électronique ; lorsque vous vous portez volontaire pour tester un nouveau médicament, l'institution qui organise l'essai clinique stocke vos données de son côté ; même chose si vous effectuez un test de généalogie génétique, auprès d'une startup comme 23andMe.

Toutes ces informations se trouvent dans des silos séparés, et l'ambition est de les fusionner pour obtenir une vision exhaustive de la santé du patient. Dans cette optique, nous travaillons sur une technologie qui permette aux différents instituts de santé de partager facilement leurs sources de données. Nous concevons également une technologie qui facilite et automatise partiellement l'admission des patients à l'hôpital, en tenant compte des informations contenues dans ce carnet de santé unifié. En fonction de l'état de chaque patient se présentant à l'accueil et de ses données de santé, le système suggérera de l'envoyer en salle d'urgence, de lui faire effectuer des prélèvements sanguins, etc.

"Nous offrons à nos clients l'option de maintenir une copie de leurs données dans leurs propres data centers"

Un deuxième exemple a rapport aux médias. Aujourd'hui, les chaînes télévisées disposent de gigantesques quantités d'informations qui demeurent inutilisées. Prenons le domaine du sport : de nombreuses chaînes détiennent des millions d'heures de rencontres sportives enregistrées qui ne seront jamais rediffusées. Non pas parce que cela n'intéresse personne, mais parce qu'il n'est pas possible de naviguer efficacement parmi ces heures de vidéo pour trouver l'information que l'on cherche.

C'est pourquoi nous avons mis au point une technologie capable d'analyser les séquences vidéo, de comprendre chaque image et de les annoter soigneusement sans aucune assistance humaine. Dans le cas d'un match de football, la technologie est par exemple capable de comprendre que Cristiano Ronaldo vient de marquer un but, de saisir sa position exacte au moment de la frappe, etc. Ensuite, on peut rendre cette base de données accessible à des parties tierces via des services de streaming. Mettons qu'un studio de jeux vidéo travaille sur un jeu de football : il pourra ainsi facilement avoir accès à tous les buts marqués sur penalty par Cristiano Ronaldo au cours des cinq dernières années (en vue d'affiner les séquences et configurations proposées, ndlr).

La question de la localisation des données suscite d'importants débats partout dans le monde. Plusieurs gouvernements européens ont exprimé leurs inquiétudes à l'idée que des données hautement confidentielles soient massivement stockées sur des serveurs gérés par des entreprises américaines… Comprenez-vous ces inquiétudes ? Que faites-vous pour y faire face ?

Nous comprenons tout à fait que nos clients se préoccupent de la sécurité de leurs données, et notre réponse se décline en plusieurs dimensions. D'abord, lorsque vous utilisez Google Cloud, vous avez la possibilité de choisir la localisation de vos données. Vous pouvez ainsi demander qu'une première copie soit stockée à tel endroit, puis, au cas où cette copie soit dégradée, qu'une seconde copie soit conservée dans telle autre localisation, etc. Nous disposons de plusieurs installations sur le sol européen pour permettre à nos partenaires de stocker leurs données sur place : à Helsinki, Francfort, Zurich, Londres, mais aussi en Belgique et en Hollande. Pour les clients qui souhaitent conserver une copie privée de leurs données, dans le cadre de l'impératif de réversibilité fixé par le RGPD, par exemple, nous offrons l'option de maintenir cette copie dans leurs propres centres de données.

Aux côtés de cette composante géographique, nous donnons à nos clients la possibilité de détenir leur propre clef d'encryption pour gérer leurs données, clef qui peut être maintenue en dehors des serveurs de Google.

Et dans le cas où un client ait besoin de notre assistance pour régler un problème technique, nous avons mis en place un processus clair et transparent. L'un de nos opérateurs est dépêché pour résoudre le problème, et nous envoyons en temps réel au client toutes les opérations qui sont effectuées sur le cloud par cet opérateur. Le client a accès à ces données de manière parfaitement transparente et peut donc surveiller le processus en temps réel pour s'assurer que tout lui convient.

Avant d'être recruté par Google, Thomas Kurian a passé 22 ans chez Oracle. Président du développement produits de l'éditeur de logiciels américains, il y jouait un rôle clé dans la stratégie touchant tant à l'offre historique de bases de données qu'aux applications cloud (IaaS, PaaS et SaaS). Il rejoint Google en 2018 pour prendre la succession de Diane Greene (ex-VMware) à la tête de Google Cloud. 

]]>
Fri, 03 May 2019 15:53:58 +0200https://www.journaldunet.com/solutions/cloud-computing/1423610-thomas-kurian-ceo-google-cloud/Guillaume RenouardJDN