Transformers documentation
커뮤니티
시작하기
튜토리얼
Pipeline으로 추론하기AutoClass로 사전 학습된 인스턴스 로드하기데이터 전처리하기사전 학습된 모델 미세 조정하기스크립트로 학습하기🤗 Accelerate로 분산 학습 구성하기🤗 PEFT로 어댑터 로드 및 학습하기만든 모델 공유하기에이전트대규모 언어 모델로 생성하기
태스크 가이드
자연어처리
오디오
(번역중) 컴퓨터 비전
멀티모달
(번역중) 개발자 가이드
🤗 Tokenizers 라이브러리에서 토크나이저 사용하기다국어 모델 추론하기(번역중) Customize text generation strategy모델별 API 사용하기사용자 정의 모델 공유하기Amazon SageMaker에서 학습 실행하기ONNX로 내보내기TFLite로 내보내기TorchScript로 내보내기(번역중) Benchmarks(번역중) Notebooks with examples커뮤니티 리소스사용자 정의 도구와 프롬프트문제 해결
(번역중) 성능 및 확장성
성능 및 확장성(번역중) Training on one GPU다중 GPU에서 훈련 진행하기CPU에서 훈련다중 CPU에서 훈련하기(번역중) Training on TPUsTensorFlow로 TPU에서 훈련하기(번역중) Training on Specialized HardwareCPU로 추론하기하나의 GPU를 활용한 추론다중 GPU에서 추론(번역중) Inference on Specialized Hardware훈련용 사용자 맞춤형 하드웨어(번역중) Instantiating a big model디버깅Trainer API를 사용한 하이퍼파라미터 탐색TensorFlow 모델을 위한 XLA 통합
(번역중) 기여하기
🤗 Transformers에 기여하는 방법🤗 Transformers에 새로운 모델을 추가하는 방법어떻게 🤗 Transformers 모델을 TensorFlow로 변환하나요?어떻게 🤗 Transformers에 파이프라인을 추가하나요?테스트Pull Request에 대한 검사
(번역중) 개념 가이드
이념과 목표(번역중) Glossary🤗 Transformers로 할 수 있는 작업🤗 Transformers로 작업을 해결하는 방법Transformer 모델군토크나이저 요약어텐션 매커니즘패딩과 잘라내기BERTology고정 길이 모델의 펄플렉서티(Perplexity)추론 웹 서버를 위한 파이프라인모델 학습 해부하기
(번역중) API
(번역중) 메인 클래스
(번역중) Auto Classes(번역중) Callbacks(번역중) Configuration(번역중) Data Collator(번역중) Keras callbacks(번역중) Logging(번역중) Models(번역중) Text Generation(번역중) ONNX(번역중) Optimization(번역중) Model outputs(번역중) Pipelines(번역중) Processors(번역중) Quantization(번역중) Tokenizer(번역중) Trainer(번역중) DeepSpeed Integration(번역중) Feature Extractor(번역중) Image Processor
(번역중) 모델
(번역중) 텍스트 모델
(번역중) 비전 모델
(번역중) 오디오 모델
(번역중) 멀티모달 모델
(번역중) 강화학습 모델
(번역중) 시계열 모델
(번역중) Graph models
(번역중) Internal Helpers
You are viewing v4.34.0 version. A newer version v5.8.1 is available.
커뮤니티
이 페이지는 커뮤니티에서 개발한 🤗 Transformers 리소스를 재구성한 페이지입니다.
커뮤니티 리소스:
| 리소스 | 설명 | 만든이 |
|---|---|---|
| Hugging Face Transformers 용어집 플래시카드 | Transformers 문서 용어집을 기반으로 한 플래시카드 세트로, 지식을 장기적으로 유지하기 위해 특별히 설계된 오픈소스 크로스 플랫폼 앱인 Anki를 사용하여 쉽게 학습/수정할 수 있는 형태로 제작되었습니다. 플래시카드 사용법에 대한 소개 동영상을 참조하세요. | Darigov 리서치 |
커뮤니티 노트북:
| 노트북 | 설명 | 만든이 | |
|---|---|---|---|
| 가사를 생성하기 위해 사전훈련된 트랜스포머를 미세 조정하기 | GPT-2 모델을 미세 조정하여 좋아하는 아티스트의 스타일로 가사를 생성하는 방법 | Aleksey Korshuk | |
| Tensorflow 2로 T5 훈련하기 | Tensorflow 2를 사용하여 T5를 훈련시키는 방법. 이 노트북은 Tensorflow 2로 SQUAD를 사용하여 구현한 질의응답 작업을 보여줍니다. | Muhammad Harris | |
| TPU에서 T5 훈련하기 | Transformers와 Nlp를 사용하여 SQUAD로 T5를 훈련하는 방법 | Suraj Patil | |
| 분류 및 객관식 문제를 위해 T5 미세 조정하기 | 분류 및 객관식 문제에 맞게 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법 | Suraj Patil | |
| 새로운 데이터 세트와 언어로 DialoGPT 미세 조정하기 | 자유 대화형 챗봇을 만들기 위해 새로운 데이터 세트로 DialoGPT 모델을 미세 조정하는 방법 | Nathan Cooper | |
| Reformer로 긴 시퀀스 모델링하기 | Reformer로 최대 50만 토큰의 시퀀스를 훈련하는 방법 | Patrick von Platen | |
| 요약을 위해 BART 미세 조정하기 | blurr를 사용하여 fastai로 요약하기 위해 BART를 미세 조정하는 방법 | Wayde Gilliam | |
| 다른 사람의 트윗으로 사전훈련된 트랜스포머 미세 조정하기 | GPT-2 모델을 미세 조정하여 좋아하는 트위터 계정 스타일로 트윗을 생성하는 방법 | Boris Dayma | |
| Weights & Biases로 🤗 Hugging Face 모델 최적화하기 | W&B와 Hugging Face의 통합을 보여주는 전체 튜토리얼 | Boris Dayma | |
| Longformer 사전훈련하기 | 기존 사전훈련된 모델의 “긴” 버전을 빌드하는 방법 | Iz Beltagy | |
| QA를 위해 Longformer 미세 조정하기 | QA 작업을 위해 Longformer를 미세 조정하는 방법 | Suraj Patil | |
| 🤗 Nlp로 모델 평가하기 | Nlp로 TriviaQA에서 Longformer를 평가하는 방법 | Patrick von Platen | |
| 감정 범위 추출을 위해 T5 미세 조정하기 | 감정 범위 추출을 위해 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법 | Lorenzo Ampil | |
| 다중 클래스 분류를 위해 DistilBert 미세 조정하기 | 다중 클래스 분류를 위해 PyTorch를 사용하여 DistilBert를 미세 조정하는 방법 | Abhishek Kumar Mishra | |
| 다중 레이블 분류를 위해 BERT 미세 조정하기 | 다중 레이블 분류를 위해 PyTorch를 사용하여 BERT를 미세 조정하는 방법 | Abhishek Kumar Mishra | |
| 요약을 위해 T5 미세 조정하기 | 요약을 위해 PyTorch로 T5를 미세 조정하고 WandB로 실험을 추적하는 방법 | Abhishek Kumar Mishra | |
| 동적 패딩/버켓팅으로 Transformers 미세 조정 속도 높이기 | 동적 패딩/버켓팅을 사용하여 미세 조정 속도를 2배로 높이는 방법 | Michael Benesty | |
| 마스킹된 언어 모델링을 위해 Reformer 사전훈련하기 | 양방향 셀프 어텐션 레이어를 이용해서 Reformer 모델을 훈련하는 방법 | Patrick von Platen | |
| Sci-BERT 확장 및 미세 조정하기 | CORD 데이터 세트로 AllenAI에서 사전훈련된 SciBERT 모델의 어휘를 늘리고 파이프라인을 구축하는 방법 | Tanmay Thakur | |
| 요약을 위해 Trainer API로 BlenderBotSmall 미세 조정하기 | 요약을 위해 Trainer API를 사용하여 사용자 지정 데이터 세트로 BlenderBotSmall 미세 조정하기 | Tanmay Thakur | |
| 통합 기울기(Integrated Gradient)를 이용하여 Electra 미세 조정하고 해석하기 | 감정 분석을 위해 Electra를 미세 조정하고 Captum 통합 기울기로 예측을 해석하는 방법 | Eliza Szczechla | |
| Trainer 클래스로 비영어권 GPT-2 모델 미세 조정하기 | Trainer 클래스로 비영어권 GPT-2 모델을 미세 조정하는 방법 | Philipp Schmid | |
| 다중 라벨 분류 작업을 위해 DistilBERT 모델 미세 조정하기 | 다중 라벨 분류 작업을 위해 DistilBERT 모델을 미세 조정하는 방법 | Dhaval Taunk | |
| 문장쌍 분류를 위해 ALBERT 미세 조정하기 | 문장쌍 분류 작업을 위해 ALBERT 모델 또는 다른 BERT 기반 모델을 미세 조정하는 방법 | Nadir El Manouzi | |
| 감정 분석을 위해 Roberta 미세 조정하기 | 감정 분석을 위해 Roberta 모델을 미세 조정하는 방법 | Dhaval Taunk | |
| 질문 생성 모델 평가하기 | seq2seq 트랜스포머 모델이 생성한 질문과 이에 대한 답변이 얼마나 정확한가요? | Pascal Zoleko | |
| DistilBERT와 Tensorflow로 텍스트 분류하기 | 텍스트 분류를 위해 TensorFlow로 DistilBERT를 미세 조정하는 방법 | Peter Bayerle | |
| CNN/Dailail 요약을 위해 인코더-디코더 모델에 BERT 활용하기 | CNN/Dailail 요약을 위해 bert-base-uncased 체크포인트를 활용하여 EncoderDecoderModel을 워밍업하는 방법 | Patrick von Platen | |
| BBC XSum 요약을 위해 인코더-디코더 모델에 RoBERTa 활용하기 | BBC/XSum 요약을 위해 roberta-base 체크포인트를 활용하여 공유 EncoderDecoderModel을 워밍업하는 방법 | Patrick von Platen | |
| 순차적 질문 답변(SQA)을 위해 TAPAS 미세 조정하기 | tapas-base 체크포인트를 활용하여 순차적 질문 답변(SQA) 데이터 세트로 TapasForQuestionAnswering을 미세 조정하는 방법 | Niels Rogge | |
| 표 사실 검사(TabFact)로 TAPAS 평가하기 | 🤗 Datasets와 🤗 Transformer 라이브러리를 함께 사용하여 tapas-base-finetuned-tabfact 체크포인트로 미세 조정된 TapasForSequenceClassification을 평가하는 방법 | Niels Rogge | |
| 번역을 위해 mBART 미세 조정하기 | 힌디어에서 영어로 번역하기 위해 Seq2SeqTrainer를 사용하여 mBART를 미세 조정하는 방법 | Vasudev Gupta | |
| FUNSD(양식 이해 데이터 세트)로 LayoutLM 미세 조정하기 | 스캔한 문서에서 정보 추출을 위해 FUNSD 데이터 세트로 LayoutLMForTokenClassification을 미세 조정하는 방법 | Niels Rogge | |
| DistilGPT2 미세 조정하고 및 텍스트 생성하기 | DistilGPT2를 미세 조정하고 텍스트를 생성하는 방법 | Aakash Tripathi | |
| 최대 8K 토큰에서 LED 미세 조정하기 | 긴 범위를 요약하기 위해 PubMed로 LED를 미세 조정하는 방법 | Patrick von Platen | |
| Arxiv로 LED 평가하기 | 긴 범위 요약에 대해 LED를 효과적으로 평가하는 방법 | Patrick von Platen | |
| RVL-CDIP(문서 이미지 분류 데이터 세트)로 LayoutLM 미세 조정하기) | 스캔 문서 분류를 위해 RVL-CDIP 데이터 세트로 LayoutLMForSequenceClassification을 미세 조정하는 방법 | Niels Rogge | |
| GPT2 조정을 통한 Wav2Vec2 CTC 디코딩 | 언어 모델 조정을 통해 CTC 시퀀스를 디코딩하는 방법 | Eric Lam | |
| Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하기 | Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하는 방법 | Eliza Szczechla | |
| Trivia QA로 Big Bird 평가하기 | Trivia QA로 긴 문서 질문에 대한 답변에 대해 BigBird를 평가하는 방법 | Patrick von Platen | |
| Wav2Vec2를 사용하여 동영상 캡션 만들기 | Wav2Vec으로 오디오를 텍스트로 변환하여 모든 동영상에서 YouTube 캡션 만드는 방법 | Niklas Muennighoff | |
| PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머 미세 조정하기 | HuggingFace Transformers, Datasets, PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머(ViT)를 미세 조정하는 방법 | Niels Rogge | |
| 🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머 미세 조정하기 | Datasets, 🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머(ViT)를 미세 조정하는 방법 | Niels Rogge | |
| 개체 입력 데이터 세트인 Open Entity로 LUKE 평가하기 | Open Entity 데이터 세트로 LukeForEntityClassification을 평가하는 방법 | Ikuya Yamada | |
| 관계 추출 데이터 세트인 TACRED로 LUKE 평가하기 | TACRED 데이터 세트로 LukeForEntityPairClassification을 평가하는 방법 | Ikuya Yamada | |
| 중요 NER 벤치마크인 CoNLL-2003으로 LUKE 평가하기 | CoNLL-2003 데이터 세트로 LukeForEntitySpanClassification를 평가하는 방법 | Ikuya Yamada | |
| PubMed 데이터 세트로 BigBird-Pegasus 평가하기 | PubMed 데이터 세트로 BigBirdPegasusForConditionalGeneration를 평가하는 방법 | Vasudev Gupta | |
| Wav2Vec2를 사용해서 음성 감정 분류하기 | 감정 분류를 위해 사전훈련된 Wav2Vec2 모델을 MEGA 데이터 세트에 활용하는 방법 | Mehrdad Farahani | |
| DETR로 이미지에서 객체 탐지하기 | 훈련된 DetrForObjectDetection 모델을 사용하여 이미지에서 객체를 탐지하고 어텐션을 시각화하는 방법 | Niels Rogge | |
| 사용자 지정 객체 탐지 데이터 세트로 DETR 미세 조정하기 | 사용자 지정 객체 탐지 데이터 세트로 DetrForObjectDetection을 미세 조정하는 방법 | Niels Rogge | |
| 개체명 인식을 위해 T5 미세 조정하기 | 개체명 인식 작업을 위해 T5를 미세 조정하는 방법 | Ogundepo Odunayo |