Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Original file line number Diff line number Diff line change
Expand Up @@ -116,11 +116,11 @@ et nous ne perdons aucune séquence car elles sont trop courtes. Jusqu'à prése

30
00:03:05,840 --> 00:03:10,720
des entrées pour la modélisation causale du langage, mais pas des étiquettes nécessaires à l'entraînement supervisée.
des entrées pour la modélisation du langage causal, mais pas des étiquettes nécessaires à l'entraînement supervisée.

31
00:03:11,600 --> 00:03:16,480
Lorsque nous effectuons une modélisation causale du langage, nous n'avons pas besoin d'étiquettes supplémentaires pour les séquences d'entrée
Lorsque nous effectuons une modélisation du langage causal, nous n'avons pas besoin d'étiquettes supplémentaires pour les séquences d'entrée

32
00:03:16,480 --> 00:03:22,080
Expand Down Expand Up @@ -168,4 +168,4 @@ Donc vous voyez qu'il n'y a pas de magie

43
00:04:21,600 --> 00:04:27,840
impliquée dans le traitement des données pour la modélisation du langage causal et ne nécessite que quelques étapes simples !
impliquée dans le traitement des données pour la modélisation du langage causal et ne nécessite que quelques étapes simples !
59 changes: 21 additions & 38 deletions subtitles/fr/tasks_00_🤗-tasks-token-classification.srt
Original file line number Diff line number Diff line change
@@ -1,116 +1,99 @@
1
00:00:04,520 --> 00:00:07,400
Bienvenue dans la série de tâches Hugging Face !
Bienvenue dans la série d'Hugging Face sur les tâches !

2
00:00:07,400 --> 00:00:11,870
Dans cette vidéo, nous allons examiner la
tâche de classification des jetons.
Dans cette vidéo, nous allons jeter un coup d'œil à la tâche de classification de tokens.

3
00:00:11,870 --> 00:00:17,900
La classification des jetons consiste Ă  attribuer
une étiquette à chaque jeton dans une phrase.
La classification de tokens consiste à attribuer une étiquette à chaque token d'une phrase

4
00:00:17,900 --> 00:00:23,310
Il existe diverses tâches de classification de jetons
et les plus courantes sont la reconnaissance d'entités nommées et le balisage de la
Il existe plusieurs tâches de classification de tokens, les plus courantes étant la reconnaissance d’entités nommées

5
00:00:23,310 --> 00:00:26,430
partie du discours.
et le « part-of-speech ».

6
00:00:26,430 --> 00:00:31,640
Jetons un coup d'œil à la
tâche de reconnaissance d'entité nommée.
Jetons un coup d'œil rapide à la tâche de reconnaissance d'entités nommées

7
00:00:31,640 --> 00:00:38,400
L'objectif de cette tâche est de trouver les entités
dans un morceau de texte, telles qu'une personne, un lieu
L'objectif de cette tâche est de trouver les entités dans un texte, comme une personne, un lieu

8
00:00:38,400 --> 00:00:40,210
ou une organisation.

9
00:00:40,210 --> 00:00:45,250
Cette tâche consiste à étiqueter chaque
jeton avec une classe pour chaque entité et
Cette tâche est formulée comme l'étiquetage de chaque token avec une classe pour chaque entité,

10
00:00:45,250 --> 00:00:51,719
une autre classe pour les jetons qui n'ont pas d'entité.
et une autre classe pour les tokens qui n'ont pas d'entité.

11
00:00:51,719 --> 00:00:55,670
Une autre tâche de classification des jetons est le balisage des parties du discours
.
Une autre tâche de classification de tokens est le « part-of-speech ».

12
00:00:55,670 --> 00:01:01,399
Le but de cette tâche est d'étiqueter les mots
pour une partie particulière d'un discours, comme le
L'objectif de cette tâche est d'étiqueter les mots pour une partie particulière du texte, comme

13
00:01:01,399 --> 00:01:05,900
nom, le pronom, l'adjectif, le verbe et ainsi de suite.
un nom, un pronom, un adjectif, un verbe, etc.

14
00:01:05,900 --> 00:01:11,270
Cette tâche consiste à étiqueter chaque
jeton avec des parties du discours.
Cette tâche est formulée comme l'étiquetage de chaque token avec les parties du texte.

15
00:01:11,270 --> 00:01:19,659
Les modèles de classification de jetons sont évalués
sur l'exactitude, le rappel, la précision et le score F1.
Les modèles de classification de tokens sont évalués sur l'exactitude, le rappel, la précision et le score F1.

16
00:01:19,659 --> 00:01:22,950
Les métriques sont calculées pour chacune des
classes.
Les métriques sont calculées pour chacune des classes.

17
00:01:22,950 --> 00:01:28,040
Nous calculons les vrais positifs, les vrais négatifs
et les faux positifs pour calculer la précision
Nous calculons les vrais positifs, les vrais négatifs et les faux positifs pour calculer la précision

18
00:01:28,040 --> 00:01:31,829
et le rappel, et prenons leur moyenne harmonique pour
obtenir le F1-Score.
et le rappel, et prenons leur moyenne harmonique pour obtenir le score F1.

19
00:01:31,829 --> 00:01:42,329
Ensuite, nous le calculons pour chaque classe et prenons
la moyenne globale pour évaluer notre modèle.
Ensuite, nous les calculons pour chaque classe et prenons la moyenne globale pour évaluer notre modèle.

20
00:01:42,329 --> 00:01:45,680
Un exemple de jeu de données utilisé pour cette tâche est ConLL2003.

21
00:01:45,680 --> 00:01:51,750
Ici, chaque jeton appartient Ă  une certaine
classe d'entités nommées, désignées par les indices de la
Ici, chaque token appartient à une certaine classe d'entités nommées, désignées par les indices de la

22
00:01:51,750 --> 00:01:55,380
liste contenant les étiquettes.

23
00:01:55,380 --> 00:02:00,720
Vous pouvez extraire des informations importantes des
factures à l'aide de modèles de reconnaissance d'entités nommées,
Vous pouvez extraire des informations importantes de factures à l'aide de modèles de reconnaissance d'entités nommées,

24
00:02:00,720 --> 00:02:07,070
telles que la date, le nom de l'organisation ou l'adresse.

25
00:02:07,070 --> 00:02:16,840
Pour plus d'informations sur la tâche de classification des jetons
, consultez le cours Hugging Face.
Pour plus d'informations sur la tâche de classification de tokens, consultez le cours d'Hugging Face.
50 changes: 17 additions & 33 deletions subtitles/fr/tasks_01_🤗-tasks-question-answering.srt
Original file line number Diff line number Diff line change
@@ -1,87 +1,71 @@
1
00:00:04,400 --> 00:00:06,480
Bienvenue dans la série de tâches Hugging Face.
Bienvenue dans la série d'Hugging Face sur les tâches !

2
00:00:07,200 --> 00:00:10,080
Dans cette vidéo, nous allons examiner
la tâche de réponse aux questions.
Dans cette vidéo, nous allons examiner la tâche de réponse aux questions.

3
00:00:13,120 --> 00:00:17,200
La réponse aux questions consiste à
extraire une réponse dans un document donné.
La réponse aux questions consiste à extraire une réponse dans un document donné.

4
00:00:21,120 --> 00:00:25,600
Les modèles de réponse aux questions prennent un contexte,
qui est le document dans lequel vous souhaitez effectuer une recherche,
Les modèles de réponse aux questions prennent un contexte, qui est le document dans lequel vous souhaitez effectuer une recherche,

5
00:00:26,240 --> 00:00:31,440
et une question et renvoient une réponse.
Notez que la réponse n'est pas générée,
et une question et renvoient une réponse. Notez que la réponse n'est pas générée,

6
00:00:31,440 --> 00:00:37,600
mais extraite du contexte. Ce type
de réponse aux questions est appelé extractif.
mais extraite du contexte. Ce type de réponse aux questions est appelé extractive.

7
00:00:42,320 --> 00:00:46,960
La tâche est évaluée sur deux
statistiques, la correspondance exacte et le score F1.
La tâche est évaluée sur deux statistiques, la correspondance exacte et le score F1.

8
00:00:49,680 --> 00:00:52,320
Comme son nom l'indique, la correspondance exacte recherche une

9
00:00:52,320 --> 00:00:57,840
correspondance exacte entre la
réponse prédite et la bonne réponse.
correspondance exacte entre la réponse prédite et la bonne réponse.

10
00:01:00,080 --> 00:01:05,520
Une métrique couramment utilisée est le F1-Score, qui
est calculé sur des jetons prédits
Une métrique couramment utilisée est le F1-Score, qui est calculé sur des tokens prédits

11
00:01:05,520 --> 00:01:10,960
correctement et incorrectement. Il est calculé
sur la moyenne de deux métriques appelées
correctement et incorrectement. Il est calculé sur la moyenne de deux métriques appelées

12
00:01:10,960 --> 00:01:16,560
précision et rappel, qui sont des métriques
largement utilisées dans les problèmes de classification.
précision et rappel, qui sont des métriques largement utilisées dans les problèmes de classification.

13
00:01:20,880 --> 00:01:28,240
Un exemple d'ensemble de données utilisé pour cette tâche est appelé
SQuAD. Cet ensemble de données contient des contextes, des questions
Un exemple de jeu de données utilisé pour cette tâche est appelé SQuAD. Ce jeu de données contient des contextes, des questions

14
00:01:28,240 --> 00:01:32,080
et les réponses obtenues à
partir d'articles de Wikipédia en anglais.
et les réponses obtenues à partir d'articles de Wikipédia en anglais.

15
00:01:35,440 --> 00:01:39,520
Vous pouvez utiliser des modèles de questions-réponses pour
répondre automatiquement aux questions posées
Vous pouvez utiliser des modèles de réponse aux questions pour répondre automatiquement aux questions posées

16
00:01:39,520 --> 00:01:46,480
par vos clients. Vous avez simplement besoin d'un document
contenant des informations sur votre entreprise
par vos clients. Vous avez simplement besoin d'un document contenant des informations sur votre entreprise

17
00:01:47,200 --> 00:01:53,840
et interrogez ce document avec
les questions posées par vos clients.
et interrogez ce document avec les questions posées par vos clients.

18
00:01:55,680 --> 00:02:06,160
Pour plus d'informations sur la tâche Question Answering
, consultez le cours Hugging Face.
Pour plus d'informations sur la tâche de réponse aux questions, consultez le cours d'Hugging Face.
38 changes: 13 additions & 25 deletions subtitles/fr/tasks_02_🤗-tasks-causal-language-modeling.srt
Original file line number Diff line number Diff line change
@@ -1,63 +1,51 @@
1
00:00:04,560 --> 00:00:06,640
Bienvenue dans la série de tâches Hugging Face !
Bienvenue dans la série d'Hugging Face sur les tâches !

2
00:00:07,200 --> 00:00:10,400
Dans cette vidéo, nous allons jeter un œil
à la modélisation du langage causal.
Dans cette vidéo, nous allons jeter un œil à la modélisation du langage causal.

3
00:00:13,600 --> 00:00:16,880
La modélisation du langage causal consiste à
prédire le
La modélisation du langage causal consiste à prédire le

4
00:00:16,880 --> 00:00:21,920
mot suivant dans une phrase, compte tenu de tous les
mots précédents. Cette tâche est très
mot suivant dans une phrase, compte tenu de tous les mots précédents. Cette tâche est très

5
00:00:21,920 --> 00:00:29,920
similaire Ă  la fonction de correction automatique
que vous pourriez avoir sur votre téléphone.
similaire à la fonction de correction automatique que vous pourriez avoir sur votre téléphone.

6
00:00:29,920 --> 00:00:34,720
Ces modèles prennent une séquence à
compléter et génèrent la séquence complète.
Ces modèles prennent une séquence à compléter et génèrent la séquence complète.

7
00:00:38,640 --> 00:00:44,160
Les statistiques de classification ne peuvent pas être utilisées, car il n'y a
pas de réponse correcte unique pour l'achèvement.
Les métriques de classification ne peuvent pas être utilisées, car il n'y a pas de réponse correcte unique pour la complétion.

8
00:00:44,960 --> 00:00:49,280
Au lieu de cela, nous évaluons la distribution
du texte complété par le modèle.
Au lieu de cela, nous évaluons la distribution du texte complété par le modèle.

9
00:00:50,800 --> 00:00:55,440
Une mesure courante pour ce faire est la
perte d'entropie croisée. La perplexité est
Une métrique courante pour ce faire est la perte d'entropie croisée. La perplexité est

10
00:00:55,440 --> 00:01:01,280
également une mesure largement utilisée et elle est calculée
comme l'exponentielle de la perte d'entropie croisée.
aussi une métrique largement utilisée et elle est calculée comme l'exponentielle de la perte d'entropie croisée.

11
00:01:05,200 --> 00:01:11,840
Vous pouvez utiliser n'importe quel ensemble de données avec du texte brut
et segmenter le texte pour préparer les données.
Vous pouvez utiliser n'importe quel jeu de données avec du texte brut et tokeniser le texte pour préparer les données.

12
00:01:15,040 --> 00:01:18,240
Les modèles de langage causal peuvent
être utilisés pour générer du code.
Les modèles de langage causal peuvent être utilisés pour générer du code.

13
00:01:22,480 --> 00:01:33,200
Pour plus d'informations sur la
tâche Modélisation du langage causal, consultez le cours Hugging Face.
Pour plus d'informations sur la tâche de modélisation du langage causal, consultez le cours d'Hugging Face.
Loading