FAQ
La FAQ
Général
DataChain® peut-il s'intégrer à mes systèmes existants (ERP, CRM, etc.) et quels types de connecteurs sont disponibles ?
Puis-je automatiser les tâches de préparation des données avec DataChain® ?"
Quels types d'analyses et/ou de fonctionnalitésés puis-je effectuer avec DataChain® ?
Quels sont les outils de visualisation disponibles dans DataChain® ? "
DataChain® propose, nativement, un module HandleData qui permet de réaliser des tableaux de bord contenant différents types de représentations comme des graphiques (Barre, line, aire, Bubble, nuage de point, gauge, sendkey, indicateur, pie, …), Time Line interactive, Cartographies multi-fonds de carte, Média, documents, …)
L’utilisation du module de visualisation HandleData permet de garantir une complète traçabilité et explicabilité de la chaîne de valeurs (Linéage)
Puis-je utiliser mon propre outils BI ?
Oui, la solution permet de se connecter à tous les outils BI. DataChain® propose de mettre à disposition une communication via des API (REST ou Odata) permettant aux organisations d’utiliser pour la représentation des données leurs propres outils de représentation graphique. Dans ce cadre DataChain® ne peut pas garantir la traçabilité et l’explicabilité de la chaîne de valeur global (Linéage) .
Comment DataChain® garantit-il la sécurité et la confidentialité de mes données ?
DataChain® peut-il se connecter directement à mon annuaire d’authentification ?
DataChain® est-il disponible en mode cloud ou on-premise ?
Quelles sont les options d'hébergement disponibles ?
DataChain® a-t-il des dépendances avec certains hébergeurs ?
Non, aucune dépendance. Le client reste maitre du lieu de déploiement de la solution et de son type de déploiement. C’est là que la notion de Souveraineté prend tout son sens.
DataChain® est-il facile à utiliser pour les utilisateurs non techniques ?
Oui, DataChain® reste accessible et pensé pour des utilisateurs non techniques.
Grace au concept Low-Code, No-code, chaque collaborateur peut utiliser DataChain® selon son niveau. Les formations durent entre 2 et 5 jours pour commencer à avoir une réelle autonomie sur la solution.
Quelle est la courbe d'apprentissage pour maîtriser DataChain® ?
Avez-vous une documentation en ligne ?
Quel type de support et de maintenance proposez-vous pour DataChain® ?
DataChain
La solution DataChain® est-elle une solution uniquement Sas ?
La solution DataChain® peut se déployer selon différents modes.
Sa conception permet un déploiement Sas, Cloud Public, Cloud Privé et On Premise.
Les données traitées sont-elles dupliquées dans l’environnement DataChain® ?
Le concept et la technologie de la solution DataChain® répond aux normes de la Data Virtualisation. Les données ne sont pas dupliquées dans l’environnement DataChain® lorsqu’elles sont consommées dans les diverses opérations.
A noter que lors de l’optimisation des pipelines de traitement, il est possible de générer une mise en cache des données. Ce cache nommé persistance est temporaire et sécurisé.
Est-il possible de réaliser des extractions des données vues et lues par la plateforme DataChain® ?
La plateforme DataChain® offre des fonctions permettant d’extraire des données. Chaque extraction réalisée des données sources est horodatée et devient une source disponible constituant ainsi un historique des données sources.
La solution DataChain® est-elle dépendante d’un hyperscaler comme AWS, Microsoft, Google, ou autres ?
La solution DataChain® ne possède aucune dépendance sur des services proposés par des hyperscalers ou autres plateformes. Cette capacité permet à chacun de choisir son hébergeur et apporte une sérénité dans l’évolutivité dans le temps
Quels sont les capacités de DataChain® à mettre à disposition les données traitées ?
La solution DataChain® possède plusieurs types de mise à disposition des données traitées.
– Génération d’API dynamique sécurisée sous différents protocoles
(API REST, Odata,..)
– Génération d’exports sous différents formats (csv, txt, Json, xml, Parquet, Excel,..) et protocoles comme S3, Hdfs, Sftp, Base de données (Sql, Nosql, Graphe,…). A noter que tous les connecteurs entrants déclarés peuvent être utilisés en connecteurs sortants.
– Génération de publication de tableaux de bord
– Génération de Data Products
La plateforme DataChain® propose-t-elle un environnement de développement en mode Code ?
Le module complémentaire Dc Code offre une environnement pur code. Il permet de consommer des dataset gérés par le socle de la solution en respectant la politique de droit appliquée.
DC Code permet de développer des algorithmes en Python (et dans d’autres langages) via des notebooks dans un environnement JupyterHub. A noter que DC Code intègre MlFlow.
DC Code
Comment s’intègre DC Code à la plateforme ?
DC code offre une intégration native et complète à la plateforme DataChain® permettant ainsi de conserver les politiques de droits dans l’environnement de développement.
Peut-on personnaliser les environnements de DC code ?
Il est courant que des projets Python ou R n’utilisent pas les mêmes librairies voire des interpréteurs déférents. DC code apporte une réponse simple dans la personnalisation des environnements et des interpréteurs permettant une gestion efficace des dépendances de ses projets. Il permet également l’usage de dépôts privés de packages python ou R.
Comment automatiser l’exécution de mes notebooks?
L’exécution des notebooks peut être automatisée via le module DC Maestro comme une
tâche de workflow permettant ainsi d’avoir une gestion complète de l’automatisation de
ses chaînes de traitement.
DC Maestro
Que va m’apporter DC Maestro de plus des autres produits
DC Maestro permet d’automatiser l’exécution de tâches de vos projets Data.
Cela permet de simplifier la gestion des données en production et d’éviter les tâches répétitives pour que les équipes restent concentrées sur les tâches à forte valeur ajoutée.
Un système de notification vous avertit en cas de problèmes afin de limiter les ruptures de mises à jour.
De quelle manière la sécurité est-elle garantie par DC Maestro ?
DC Maestro s’appuie sur les droits et permissions définis dans les autres produits avec lesquels il communique.
Chaque utilisateur a accès exactement aux mêmes éléments d’un Projet et aux mêmes fonctions que ceux auquel il a accès dans le produit.
L'utilisation de DC Maestro nécessite-t-elle des compétences techniques ?
DC Maestro s’appuie sur des technologies Open Source innovantes et adaptées à la gestion des données en production mais l’interface et les fonctionnalités ont été pensées pour répondre à la fois aux besoins des équipes qui démarrent la mise en place d’une démarche DataOps, et aux équipes qui possèdent déjà une base solide sur le sujet.
Est-il possible de déclencher une pipeline DC Maestro depuis un autre environnement ?
DC Maestro est contrôlable via des services mis à disposition (API). Vous pouvez donc déclencher un pipeline via un appel de service. La consommation de ces services est sécurisée et nécessite une authentification et une identification.
DC MarketPlace
Comment est alimenté le DC MarketPlace ?
Les résultats produits à la suite des différents traitements et opérations sur les données
peuvent-être exposés dans DC MarketPlace.
En fonction du besoin, le producteur pourra avoir le choix entre différents formats comme les expositions API sous des protocoles variés, des publications de tableaux de bords, des blocs de données sous différents formats fichiers,…
Les éléments présents dans DC MarketPlace sont-ils sécurisés ?
Oui, l’ensemble de ce qui est mis à disposition est sécurisé. Pour accéder à DC MarketPlace, le consommateur doit s’authentifier. Il accède alors à l’ensemble des éléments disponibles pour lui.
Un seul DC MarketPlace peut-il être alimenté par plusieurs modules DataChain Code ?
Oui, à condition que le provider d’authentification (annuaire) soit partagé par les modules DataChain Core.
DC MarketPlace peut-il mettre à disposition des résultats sous di=érents formats ?
Oui, les producteurs peuvent choisir des formats différents pour exposer leurs résultats dans DC MarketPlace. Ainsi, le consommateur peut consommer les résultats sous forme d’API, de fichier, d’enveloppe projet DataApp,…