LLM Course documentation
โมเดล Encoder
0. ติดตั้งโปรแกรม
1. โมเดล Transformer
บทนำการประมวลผลภาษาธรรมชาติTransformers ชื่อนี้มีดียังไง?Transformers ทำงานยังไง?โมเดล Encoderโมเดล Decoderโมเดล sequence-to-sequenceข้อจำกัดจากอคติของข้อมูลสรุปคำถามท้ายบท
2. การใช้งาน 🤗 Transformers
3. การ fine-tune โมเดลที่ผ่านการเทรนมาแล้ว (pretrained model)
4. การแบ่งปันโมเดลและ tokenizers
6. ตัวตัดคำจาก 🤗 Tokenizers library
โมเดล Encoder
โมเดล encoder ใช้เพียงส่วน encoder จากโมเดล Transformer เท่านั้น ในแต่ละชั้น attention layer สามารถเข้าถึงคำทุกคำในประโยคได้ โมเดลเหล่านี้ส่วนใหญ่จะใช้ attention แบบสองทาง (หรือเรียกว่า bi-directional attention) และถูกเรียกว่า โมเดล auto-encoding
โมเดล pretrain ในกลุ่มนี้จะเทรนโดยการให้ประโยคเริ่มต้นและประโยควิบัติ(เช่น เว้นว่างคำบางคำในประโยค) และเป้าหมายของโมเดลคือหาวิธีสร้างประโยคเริ่มต้นให้ดีดังเดิม
โมเดล encoder เหมาะกับงานแบบนี้ที่สุด เพราะงานเหล่านี้ต้องการความเข้าใจประโยคทั้งประโยค ตัวอย่างงานแบบนี้เช่น การแยกแยะประโยค, การระบุคำเฉพาะในประโยค (รวมถึงการแยกแยะประเภทคำ), และการสกัดคำถามคำตอบ
ตัวแทนโมเดลในกลุ่มนี้ได้แก่:
Update on GitHub