Skip to content

Commit 06f5616

Browse files
authored
[i18n-fr] Translate autoclass tutorial to French (#27659)
* Translation of autoclass tutorial * Update totree to keep only tutorial section * Translate title toctree * Fix typos * Update review comments
1 parent 4d806db commit 06f5616

File tree

2 files changed

+160
-144
lines changed

2 files changed

+160
-144
lines changed

docs/source/fr/_toctree.yml

Lines changed: 18 additions & 144 deletions
Original file line numberDiff line numberDiff line change
@@ -1,156 +1,30 @@
11
- sections:
2-
- local: index
3-
title: 🤗 Transformers
4-
- local: quicktour
5-
title: Visite rapide
6-
- local: installation
7-
title: Installation
2+
- local: index
3+
title: 🤗 Transformers
4+
- local: quicktour
5+
title: Visite rapide
6+
- local: installation
7+
title: Installation
88
title: Démarrer
99
- sections:
10-
- local: in_translation
11-
title: Pipelines pour l'inférence
12-
- local: in_translation
13-
title: Chargement d'instances pré-entraînées avec une AutoClass
14-
- local: in_translation
15-
title: Préparation des données
16-
- local: in_translation
17-
title: Fine-tune un modèle pré-entraîné
18-
- local: in_translation
19-
title: Entraînement distribué avec 🤗 Accelerate
20-
- local: in_translation
21-
title: Partager un modèle
22-
title: Tutoriels
23-
- sections:
24-
- sections:
25-
- local: in_translation
26-
title: Créer votre architecture
27-
- local: in_translation
28-
title: Partager vos modèles
29-
- local: in_translation
30-
title: Entraînement avec un script
31-
- local: in_translation
32-
title: Entraînement avec Amazon SageMaker
33-
- local: in_translation
34-
title: Convertir depuis des checkpoints Tensorflow
35-
- local: in_translation
36-
title: Exporter vers ONNX
37-
- local: in_translation
38-
title: Exporter vers TorchScript
39-
- local: in_translation
40-
title: Aide au dépannage
41-
title: Usage général
42-
- sections:
43-
- local: in_translation
44-
title: Utiliser les tokenizers de 🤗 Tokenizers
45-
- local: in_translation
46-
title: Inférence avec les modèles multilingues
47-
- local: in_translation
48-
title: Stratégies de génération de texte
49-
- sections:
50-
- isExpanded: false
51-
local: in_translation
52-
title: Classification de texte
53-
- local: in_translation
54-
title: Classification de token
55-
- local: in_translation
56-
title: Système de question-réponse
57-
- local: in_translation
58-
title: Modélisation causale du langage
59-
- local: in_translation
60-
title: Modélisation du langage avec masque
61-
- local: in_translation
62-
title: Traduction
63-
- local: in_translation
64-
title: Génération de résumé
65-
- local: in_translation
66-
title: Question à choix multiple
67-
title: Guides des tâches
68-
title: Traitement automatique des langues
69-
- sections:
70-
- local: in_translation
71-
title: Classification audio
72-
- local: in_translation
73-
title: Reconnaissance automatique de la parole
74-
title: Audio
75-
- sections:
7610
- local: in_translation
77-
title: Classification d'images
11+
title: Pipelines pour l'inférence
12+
- local: autoclass_tutorial
13+
title: Chargement d'instances pré-entraînées avec une AutoClass
7814
- local: in_translation
79-
title: Segmentation sémantique
15+
title: Préparation des données
8016
- local: in_translation
81-
title: Classification de vidéos
17+
title: Fine-tune un modèle pré-entraîné
8218
- local: in_translation
83-
title: Détection d'objets
84-
title: Vision par ordinateur
85-
- sections:
86-
- local: in_translation
87-
title: Performance et extensibilité
88-
- sections:
89-
- local: in_translation
90-
title: Comment contribuer à transformers?
91-
- local: in_translation
92-
title: Comment ajouter un modèle à 🤗 Transformers?
93-
- local: in_translation
94-
title: Comment convertir un modèle 🤗 Transformers vers TensorFlow?
95-
- local: in_translation
96-
title: Comment ajouter un pipeline à 🤗 Transformers?
97-
- local: in_translation
98-
title: Tester
99-
- local: in_translation
100-
title: Vérification pour une Pull Request
101-
title: Contribuer
102-
- local: in_translation
103-
title: 🤗 Transformers Notebooks
104-
- local: in_translation
105-
title: Ressources communautaires
106-
- local: in_translation
107-
title: Benchmarks
108-
- local: in_translation
109-
title: Migration à partir de versions précédentes
110-
title: Guides d'utilisation
111-
- sections:
112-
- local: in_translation
113-
title: Philosophie
114-
- local: in_translation
115-
title: Glossaire
116-
- local: in_translation
117-
title: Qu'est ce 🤗 Transformers peut faire ?
118-
- local: in_translation
119-
title: Quelles tâches 🤗 Transformers peut résoudre ?
120-
- local: in_translation
121-
title: Résumé des modèles
122-
- local: in_translation
123-
title: Résumé des tokenizers
124-
- local: in_translation
125-
title: Remplissage et troncature
126-
- local: in_translation
127-
title: BERTology
128-
- local: in_translation
129-
title: Perplexité des modèles à longueur fixe
130-
- local: in_translation
131-
title: Pipelines pour inférence avec des serveurs web
132-
title: Guides conceptuels
133-
- sections:
134-
- isExpanded: false
135-
sections:
136-
- local: in_translation
137-
title: Classes principales
138-
- local: in_translation
139-
title: Modèles textuels
140-
- local: in_translation
141-
title: Modèles visuels
142-
- local: in_translation
143-
title: Modèles audio
19+
title: Entraînement avec un script
14420
- local: in_translation
145-
title: Modèles multimodal
21+
title: Entraînement distribué avec 🤗 Accelerate
14622
- local: in_translation
147-
title: Modèles d'apprentissage par renforcement
23+
title: Chargement et entraînement des adaptateurs avec 🤗 PEFT
14824
- local: in_translation
149-
title: Modèles de séries temporelles
25+
title: Partager un modèle
15026
- local: in_translation
151-
title: Graph models
152-
title: Modèles
153-
- sections:
27+
title: Agents
15428
- local: in_translation
155-
title: Utilitaires internes
156-
title: API
29+
title: Génération avec LLMs
30+
title: Tutoriels
Lines changed: 142 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,142 @@
1+
<!--Copyright 2022 The HuggingFace Team. All rights reserved.
2+
3+
Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
4+
the License. You may obtain a copy of the License at
5+
6+
http://www.apache.org/licenses/LICENSE-2.0
7+
8+
Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
9+
an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
10+
specific language governing permissions and limitations under the License.
11+
12+
⚠️ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be
13+
rendered properly in your Markdown viewer.
14+
15+
-->
16+
17+
# Chargement d'instances pré-entraînées avec une AutoClass
18+
19+
Avec autant d'architectures Transformer différentes, il peut être difficile d'en créer une pour votre ensemble de poids (aussi appelés "weights" ou "checkpoint" en anglais). Dans l'idée de créer une librairie facile, simple et flexible à utiliser, 🤗 Transformers fournit une `AutoClass` qui infère et charge automatiquement l'architecture correcte à partir d'un ensemble de poids donné. La fonction `from_pretrained()` vous permet de charger rapidement un modèle pré-entraîné pour n'importe quelle architecture afin que vous n'ayez pas à consacrer du temps et des ressources à l'entraînement d'un modèle à partir de zéro. Produire un tel code indépendant d'un ensemble de poids signifie que si votre code fonctionne pour un ensemble de poids, il fonctionnera avec un autre ensemble - tant qu'il a été entraîné pour une tâche similaire - même si l'architecture est différente.
20+
21+
<Tip>
22+
23+
Rappel, l'architecture fait référence au squelette du modèle et l'ensemble de poids contient les poids pour une architecture donnée. Par exemple, [BERT](https://huggingface.co/bert-base-uncased) est une architecture, tandis que `bert-base-uncased` est un ensemble de poids. Le terme modèle est général et peut signifier soit architecture soit ensemble de poids.
24+
25+
</Tip>
26+
27+
Dans ce tutoriel, vous apprendrez à:
28+
29+
* Charger un tokenizer pré-entraîné.
30+
* Charger un processeur d'image pré-entraîné.
31+
* Charger un extracteur de caractéristiques pré-entraîné.
32+
* Charger un processeur pré-entraîné.
33+
* Charger un modèle pré-entraîné.
34+
35+
## AutoTokenizer
36+
37+
Quasiment toutes les tâches de traitement du langage (NLP) commencent avec un tokenizer. Un tokenizer convertit votre texte initial dans un format qui peut être traité par le modèle.
38+
39+
Chargez un tokenizer avec [`AutoTokenizer.from_pretrained`]:
40+
41+
```py
42+
>>> from transformers import AutoTokenizer
43+
44+
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
45+
```
46+
47+
Puis, transformez votre texte initial comme montré ci-dessous:
48+
49+
```py
50+
>>> sequence = "In a hole in the ground there lived a hobbit."
51+
>>> print(tokenizer(sequence))
52+
{'input_ids': [101, 1999, 1037, 4920, 1999, 1996, 2598, 2045, 2973, 1037, 7570, 10322, 4183, 1012, 102],
53+
'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
54+
'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
55+
```
56+
57+
## AutoImageProcessor
58+
59+
Pour les tâches de vision, un processeur d'image traite l'image pour la formater correctment.
60+
61+
```py
62+
>>> from transformers import AutoImageProcessor
63+
64+
>>> image_processor = AutoImageProcessor.from_pretrained("google/vit-base-patch16-224")
65+
```
66+
67+
## AutoFeatureExtractor
68+
69+
Pour les tâches audio, un extracteur de caractéristiques (aussi appelés "features" en anglais) traite le signal audio pour le formater correctement.
70+
71+
Chargez un extracteur de caractéristiques avec [`AutoFeatureExtractor.from_pretrained`]:
72+
73+
```py
74+
>>> from transformers import AutoFeatureExtractor
75+
76+
>>> feature_extractor = AutoFeatureExtractor.from_pretrained(
77+
... "ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition"
78+
... )
79+
```
80+
81+
## AutoProcessor
82+
83+
Les tâches multimodales nécessitent un processeur qui combine deux types d'outils de prétraitement. Par exemple, le modèle [LayoutLMV2](model_doc/layoutlmv2) nécessite un processeur d'image pour traiter les images et un tokenizer pour traiter le texte ; un processeur combine les deux.
84+
85+
Chargez un processeur avec [`AutoProcessor.from_pretrained`]:
86+
87+
```py
88+
>>> from transformers import AutoProcessor
89+
90+
>>> processor = AutoProcessor.from_pretrained("microsoft/layoutlmv2-base-uncased")
91+
```
92+
93+
## AutoModel
94+
95+
<frameworkcontent>
96+
<pt>
97+
Enfin, les classes `AutoModelFor` vous permettent de charger un modèle pré-entraîné pour une tâche donnée (voir [ici](model_doc/auto) pour une liste complète des tâches disponibles). Par exemple, chargez un modèle pour la classification de séquence avec [`AutoModelForSequenceClassification.from_pretrained`]:
98+
99+
```py
100+
>>> from transformers import AutoModelForSequenceClassification
101+
102+
>>> model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
103+
```
104+
105+
Réutilisez facilement le même ensemble de poids pour charger une architecture pour une tâche différente :
106+
107+
```py
108+
>>> from transformers import AutoModelForTokenClassification
109+
110+
>>> model = AutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
111+
```
112+
113+
<Tip warning={true}>
114+
115+
Pour les modèles PyTorch, la fonction `from_pretrained()` utilise `torch.load()` qui utilise `pickle` en interne et est connu pour être non sécurisé. En général, ne chargez jamais un modèle qui pourrait provenir d'une source non fiable, ou qui pourrait avoir été altéré. Ce risque de sécurité est partiellement atténué pour les modèles hébergés publiquement sur le Hugging Face Hub, qui sont [scannés pour les logiciels malveillants](https://huggingface.co/docs/hub/security-malware) à chaque modification. Consultez la [documentation du Hub](https://huggingface.co/docs/hub/security) pour connaître les meilleures pratiques comme la [vérification des modifications signées](https://huggingface.co/docs/hub/security-gpg#signing-commits-with-gpg) avec GPG.
116+
117+
Les points de contrôle TensorFlow et Flax ne sont pas concernés, et peuvent être chargés dans des architectures PyTorch en utilisant les arguments `from_tf` et `from_flax` de la fonction `from_pretrained` pour contourner ce problème.
118+
119+
</Tip>
120+
121+
En général, nous recommandons d'utiliser les classes `AutoTokenizer` et `AutoModelFor` pour charger des instances pré-entraînées de tokenizers et modèles respectivement. Cela vous permettra de charger la bonne architecture à chaque fois. Dans le prochain [tutoriel](preprocessing), vous apprenez à utiliser un tokenizer, processeur d'image, extracteur de caractéristiques et processeur pour pré-traiter un jeu de données pour le fine-tuning.
122+
</pt>
123+
<tf>
124+
Enfin, les classes `TFAutoModelFor` vous permettent de charger un modèle pré-entraîné pour une tâche donnée (voir [ici](model_doc/auto) pour une liste complète des tâches disponibles). Par exemple, chargez un modèle pour la classification de séquence avec [`TFAutoModelForSequenceClassification.from_pretrained`]:
125+
126+
```py
127+
>>> from transformers import TFAutoModelForSequenceClassification
128+
129+
>>> model = TFAutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
130+
```
131+
132+
Réutilisez facilement le même ensemble de poids pour charger une architecture pour une tâche différente :
133+
134+
```py
135+
>>> from transformers import TFAutoModelForTokenClassification
136+
137+
>>> model = TFAutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
138+
```
139+
140+
En général, nous recommandons d'utiliser les classes `AutoTokenizer` et `TFAutoModelFor` pour charger des instances pré-entraînées de tokenizers et modèles respectivement. Cela vous permettra de charger la bonne architecture à chaque fois. Dans le prochain [tutoriel](preprocessing), vous apprenez à utiliser un tokenizer, processeur d'image, extracteur de caractéristiques et processeur pour pré-traiter un jeu de données pour le fine-tuning.
141+
</tf>
142+
</frameworkcontent>

0 commit comments

Comments
 (0)