regulariser rule
การตั้งค่าตัวปรับให้เป็นปกติ
tax regulariser
เพิ่มตัวปรับให้เป็นปกติ
regularisers apply
ใช้ตัวปรับให้เป็นปกติ
regulariser function
ปรับตัวปรับให้เป็นปกติ
regularisers used
ปรับจูนตัวปรับให้เป็นปกติ
regulariser method
ใช้ตัวปรับให้เป็นปกติแล้ว
regulariser effect
ใช้ตัวปรับให้เป็นปกติแล้ว
regularisers help
นำตัวปรับให้เป็นปกติออก
we added a regulariser to the loss function to prevent overfitting.
ตัวปรับปรุง (regulariser) ช่วยป้องกันการเรียนรู้เกินข้อมูล (overfitting) ขณะฝึกโมเดล
the regulariser term penalises large weights, encouraging simpler models.
เราปรับความเข้มข้นของตัวปรับปรุง (regulariser) เพื่อเพิ่มความสามารถในการทั่วไป (generalisation) สำหรับข้อมูลที่ยังไม่เคยเห็น
choosing the right regulariser strength is crucial for model generalisation.
เพิ่มเทอมของตัวปรับปรุง (regulariser) ลงในฟังก์ชันความสูญเสีย (loss function) เพื่อให้การเรียนรู้มีความเสถียร
in deep learning, l2 regulariser is widely used to constrain network parameters.
ตัวปรับปรุง L2 ทำให้เกิดโทษสำหรับน้ำหนักที่มีขนาดใหญ่และลดความแปรปรวน
a dropout layer can act as a regulariser, reducing reliance on specific neurons.
พวกเขาใช้ตัวปรับปรุงความเป็นความหนาแน่น (sparsity regulariser) เพื่อส่งเสริมการนำเสนอที่กระชับ
the researcher tuned the regulariser parameter using cross‑validation.
ค่าสัมประสิทธิ์ของตัวปรับปรุง (regulariser) ของเรามีค่าสูงเกินไป ทำให้เกิดการเรียนรู้ไม่เพียงพอ (underfitting)
our approach combines a sparsity‑inducing regulariser with the main objective.
ตัวปรับปรุง (regulariser) ทำหน้าที่เป็นข้อจำกัดที่ไม่ส่งเสริมการแก้ปัญหาที่ซับซ้อนเกินไป
when training data is limited, a regulariser helps to stabilise the learning process.
เราเปรียบเทียบตัวเลือกตัวปรับปรุง (regulariser) ที่แตกต่างกันในหลายฐานข้อมูลพื้นฐาน
the regulariser effect is more pronounced when the model capacity is high.
ตัวปรับปรุง (regulariser) ที่เลือกได้ดีสามารถเพิ่มความทนทานต่อป้ายกำกับที่มีเสียงรบกวน
we compared several regularisers, including l1, l2, and elastic‑net.
เทอมของตัวปรับปรุง (regulariser) ครอบงำในช่วงแรก แล้วค่อยๆ ลดลงเมื่อการปรับตัวดีขึ้น
the regulariser can be applied either to the input features or to the hidden units.
เราลบตัวปรับปรุง (regulariser) ออก และโมเดลเริ่มเรียนรู้เกินข้อมูล (overfitting) ทันที
implementing a regulariser in the loss yields smoother decision boundaries.
ใช้โทษของตัวปรับปรุง (regulariser) เพื่อรักษาพารามิเตอร์ให้อยู่ในช่วงที่เหมาะสม
regulariser rule
การตั้งค่าตัวปรับให้เป็นปกติ
tax regulariser
เพิ่มตัวปรับให้เป็นปกติ
regularisers apply
ใช้ตัวปรับให้เป็นปกติ
regulariser function
ปรับตัวปรับให้เป็นปกติ
regularisers used
ปรับจูนตัวปรับให้เป็นปกติ
regulariser method
ใช้ตัวปรับให้เป็นปกติแล้ว
regulariser effect
ใช้ตัวปรับให้เป็นปกติแล้ว
regularisers help
นำตัวปรับให้เป็นปกติออก
we added a regulariser to the loss function to prevent overfitting.
ตัวปรับปรุง (regulariser) ช่วยป้องกันการเรียนรู้เกินข้อมูล (overfitting) ขณะฝึกโมเดล
the regulariser term penalises large weights, encouraging simpler models.
เราปรับความเข้มข้นของตัวปรับปรุง (regulariser) เพื่อเพิ่มความสามารถในการทั่วไป (generalisation) สำหรับข้อมูลที่ยังไม่เคยเห็น
choosing the right regulariser strength is crucial for model generalisation.
เพิ่มเทอมของตัวปรับปรุง (regulariser) ลงในฟังก์ชันความสูญเสีย (loss function) เพื่อให้การเรียนรู้มีความเสถียร
in deep learning, l2 regulariser is widely used to constrain network parameters.
ตัวปรับปรุง L2 ทำให้เกิดโทษสำหรับน้ำหนักที่มีขนาดใหญ่และลดความแปรปรวน
a dropout layer can act as a regulariser, reducing reliance on specific neurons.
พวกเขาใช้ตัวปรับปรุงความเป็นความหนาแน่น (sparsity regulariser) เพื่อส่งเสริมการนำเสนอที่กระชับ
the researcher tuned the regulariser parameter using cross‑validation.
ค่าสัมประสิทธิ์ของตัวปรับปรุง (regulariser) ของเรามีค่าสูงเกินไป ทำให้เกิดการเรียนรู้ไม่เพียงพอ (underfitting)
our approach combines a sparsity‑inducing regulariser with the main objective.
ตัวปรับปรุง (regulariser) ทำหน้าที่เป็นข้อจำกัดที่ไม่ส่งเสริมการแก้ปัญหาที่ซับซ้อนเกินไป
when training data is limited, a regulariser helps to stabilise the learning process.
เราเปรียบเทียบตัวเลือกตัวปรับปรุง (regulariser) ที่แตกต่างกันในหลายฐานข้อมูลพื้นฐาน
the regulariser effect is more pronounced when the model capacity is high.
ตัวปรับปรุง (regulariser) ที่เลือกได้ดีสามารถเพิ่มความทนทานต่อป้ายกำกับที่มีเสียงรบกวน
we compared several regularisers, including l1, l2, and elastic‑net.
เทอมของตัวปรับปรุง (regulariser) ครอบงำในช่วงแรก แล้วค่อยๆ ลดลงเมื่อการปรับตัวดีขึ้น
the regulariser can be applied either to the input features or to the hidden units.
เราลบตัวปรับปรุง (regulariser) ออก และโมเดลเริ่มเรียนรู้เกินข้อมูล (overfitting) ทันที
implementing a regulariser in the loss yields smoother decision boundaries.
ใช้โทษของตัวปรับปรุง (regulariser) เพื่อรักษาพารามิเตอร์ให้อยู่ในช่วงที่เหมาะสม
สำรวจคำศัพท์ที่มีการค้นหาบ่อย
ต้องการเรียนรู้คำศัพท์อย่างมีประสิทธิภาพยิ่งขึ้นหรือไม่? ดาวน์โหลดแอป DictoGo แล้วสนุกกับฟีเจอร์ช่วยจดจำและทบทวนคำศัพท์มากมาย!
ดาวน์โหลด DictoGo ตอนนี้