Dans le cours : L'essentiel d'Azure Databricks

Accédez à ce cours grâce à un essai gratuit

Inscrivez-vous aujourd’hui pour accéder à plus de 25 000 cours dispensés par des experts.

Aborder l'automatisation des jobs

Aborder l'automatisation des jobs

L'automatisation des workflows des traitements des données vise à éliminer des interventions manuelles, généralement qui sont récurrentes dans les processus, garantissant ainsi la fiabilité, la répétabilité et la scalabilité. Dans le contexte de plateformes de données comme Databricks, cette automatisation est indispensable afin d'orchestrer les traitements contenus de grands volumes bien évidemment, en particulier dans les environnements cloud où les données sont dynamiques et distribuées. Voici quelques clés de l'automatisation des jobs. D'abord, qu'est-ce qu'un job ? C'est une unité de travail planifiée qui peut inclure plusieurs tâches liées entre elles. Dans un cadre analytique, un job peut représenter une exécution d'un pipeline, le déclenchement d'un processus ou d'autres opérations analytiques ou techniques répétitives. Une tâche est une sous-composant d'un job. Elle peut correspondre à l'exécution d'un code spécifique, par exemple un script ou un notebook, ou une autre…

Table des matières