Skip to content

Conversation

0525hhgus
Copy link
Contributor

@0525hhgus 0525hhgus commented May 29, 2023

What does this PR do?

Translated the tasks_explained.mdx file of the documentation to Korean 😄
*Reference documents I added: generation_strategies.mdx, task_summary.mdx
Thank you in advance for your review!

Part of #20179

Before reviewing

  • Check for missing / redundant translations (번역 누락/중복 검사)
  • Grammar Check (맞춤법 검사)
  • Review or Add new terms to glossary (용어 확인 및 추가)
  • Check Inline TOC (e.g. [[lowercased-header]])
  • Check live-preview for gotchas (live-preview로 정상작동 확인)

Who can review? (Initial)

@0525hhgus, @kihoon71, @sim-so, @gabrielwithappy, @HanNayeoniee, @wonhyeongseo, @jungnerd

Before submitting

  • This PR fixes a typo or improves the docs (you can dismiss the other checks if that's the case).
  • Did you read the contributor guideline,
    Pull Request section?
  • Was this discussed/approved via a Github issue or the forum? Please add a link
    to it if that's the case.
  • Did you make sure to update the documentation with your changes? Here are the
    documentation guidelines, and
    here are tips on formatting docstrings.
  • Did you write any new necessary tests?

Who can review? (Final)

May you please review this PR?
@sgugger, @ArthurZucker, @eunseojo

@HuggingFaceDocBuilderDev
Copy link

HuggingFaceDocBuilderDev commented May 29, 2023

The documentation is not available anymore as the PR was closed or merged.

@kihoon71
Copy link
Contributor

kihoon71 commented Jun 2, 2023

특별히 수정할 만한 곳을 찾지 못했습니다. 고생하셨습니다!

@0525hhgus 0525hhgus force-pushed the ko-tasks_explained branch from 94ef890 to b2c1657 Compare June 2, 2023 14:54
Copy link
Contributor

@sim-so sim-so left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

무척 길고 알찬 문서였네요! 고생 많으셨습니다.
몇 가지 수정 의견을 아래와 같이 제안 드립니다 😄

@0525hhgus 0525hhgus force-pushed the ko-tasks_explained branch from b2c1657 to 62cd6d9 Compare June 4, 2023 12:38
@0525hhgus
Copy link
Contributor Author

무척 길고 알찬 문서였네요! 고생 많으셨습니다. 몇 가지 수정 의견을 아래와 같이 제안 드립니다 😄

꼼꼼한 리뷰 감사합니다! 리뷰 주신 사항 반영하여 커밋하였습니다 👍

@0525hhgus 0525hhgus marked this pull request as ready for review June 5, 2023 14:36
@0525hhgus
Copy link
Contributor Author

May you please review this PR? 😄
@sgugger, @ArthurZucker, @eunseojo

Copy link
Collaborator

@sgugger sgugger left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Can you remove the non-translated files?

- I think it will be confusing in the translation process.
- This issue is included in huggingface#23971.
Copy link
Collaborator

@sgugger sgugger left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Thanks!

@sgugger sgugger merged commit 649ffbf into huggingface:main Jun 5, 2023
@0525hhgus 0525hhgus deleted the ko-tasks_explained branch June 5, 2023 16:04
Copy link
Contributor

@wonhyeongseo wonhyeongseo left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Sorry for the late review, I forgot to submit but this revision might be easier to read. Thank you for your excellent translation.

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
[🤗 Transformers로 할 수 있는 작업](task_summary)에서 자연어 처리(NLP), 음성 및 오디오, 컴퓨터 비전 작업 등의 중요한 응용을 배웠습니다. 이 페이지에서는 모델이 이러한 작업을 어떻게 해결하는지 자세히 살펴보고 내부에서 어떤 일이 일어나는지 설명합니다. 주어진 작업을 해결하는 많은 방법이 있으며, 일부 모델은 특정 기술을 구현하거나 심지어 새로운 방식으로 작업에 접근할 수도 있지만, Transformer 모델의 경우 일반적인 아이디어는 동일합니다. 유연한 아키텍처 덕분에 대부분의 모델은 인코더, 디코더 또는 인코더-디코더 구조의 변형입니다. Transformer 모델뿐만 아니라 우리의 라이브러리에는 오늘날 컴퓨터 비전 작업에 사용되는 몇 가지 합성곱 신경망(CNNs)도 있습니다. 또한, 우리는 현대 CNN의 작동 방식에 대해 설명할 것입니다.
[🤗 Transformers로 할 수 있는 작업](task_summary)에서 자연어 처리(NLP), 음성 및 오디오, 컴퓨터 비전 작업 등의 중요한 응용을 배웠습니다. 여기서는 모델이 이러한 태스크를 어떻게 해결하는지 자세히 살펴보고, 내부에서 어떤 일이 일어나는지 설명합니다. 주어진 태스크를 해결하는 데에는 많은 방법이 있으며, 일부 모델은 특정 기술을 구현하거나 아예 새로운 방식으로 태스크를 접근할 수도 있지만, Transformer 모델의 경우 일반적인 아이디어는 동일합니다. 유연한 아키텍처 덕분에 대부분의 모델은 인코더, 디코더 또는 인코더-디코더 구조의 변형입니다. 라이브러리에는 Transformer 모델뿐만 아니라 합성곱 신경망(CNNs)도 있습니다. 오늘날까지 컴퓨터 비전 태스크에 사용되는 CNN의 작동 방식에 대해서도 알아볼 예정입니다.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Thank you for the good reviews!
I will commit together when I modify Glossary in this document 👍

novice03 pushed a commit to novice03/transformers that referenced this pull request Jun 23, 2023
…3844)

* docs: ko: tasks_explained.mdx

* feat: nmt and manual edit `tasks_explained.mdx`

* revised: resolve suggestions task_explained.mdx

* fixed: added draft of reference docs

Co-Authored-By: Kihoon Son <[email protected]>
Co-Authored-By: Nayeon Han <[email protected]>

* revised: resolve suggestions(voca, spell check) task_explained.mdx

Co-Authored-By: Sohyun Sim <[email protected]>

* revised: remove duplicate sentence in task_explained.mdx

* fixed: remove draft of reference docs

- I think it will be confusing in the translation process.
- This issue is included in huggingface#23971.

---------

Co-authored-by: Kihoon Son <[email protected]>
Co-authored-by: Nayeon Han <[email protected]>
Co-authored-by: Sohyun Sim <[email protected]>
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

7 participants