Dans le cours : L'essentiel d'Azure Databricks
Accédez à ce cours grâce à un essai gratuit
Inscrivez-vous aujourd’hui pour accéder à plus de 25 000 cours dispensés par des experts.
Aborder l'automatisation des jobs
Dans le cours : L'essentiel d'Azure Databricks
Aborder l'automatisation des jobs
L'automatisation des workflows des traitements des données vise à éliminer des interventions manuelles, généralement qui sont récurrentes dans les processus, garantissant ainsi la fiabilité, la répétabilité et la scalabilité. Dans le contexte de plateformes de données comme Databricks, cette automatisation est indispensable afin d'orchestrer les traitements contenus de grands volumes bien évidemment, en particulier dans les environnements cloud où les données sont dynamiques et distribuées. Voici quelques clés de l'automatisation des jobs. D'abord, qu'est-ce qu'un job ? C'est une unité de travail planifiée qui peut inclure plusieurs tâches liées entre elles. Dans un cadre analytique, un job peut représenter une exécution d'un pipeline, le déclenchement d'un processus ou d'autres opérations analytiques ou techniques répétitives. Une tâche est une sous-composant d'un job. Elle peut correspondre à l'exécution d'un code spécifique, par exemple un script ou un notebook, ou une autre…
Entraînez-vous tout en suivant la formation avec les fichiers d’exercice.
Téléchargez les fichiers utilisés par l’instructeur pour enseigner le cours. Suivez attentivement et apprenez en regardant, en écoutant et en vous entraînant.