معیار BLEU: تضمین کیفیت در کد خودکار و شبه کد

نویسندگان:

(1) گاوراو کلهاتکار، موسسه فناوری کامپیوتر پونا SCTR، پونا، هند ([email protected])

(2) آکشیت مدان، موسسه فناوری کامپیوتر پونا SCTR، پونا، هند ([email protected])

(3) نیذی کوتل، موسسه فناوری کامپیوتر پونا SCTR، پونا، هند ([email protected])

(4) ساتیاجیت روی، موسسه فناوری کامپیوتر پونا SCTR، پونا، هند ([email protected]).

چکیده و مقدمه

بررسی ادبیات

روش شناسی

تجزیه و تحلیل عملکرد

نتیجه گیری و مراجع

IV. تجزیه و تحلیل عملکرد

ما از امتیاز BLEU برای تجزیه و تحلیل عملکرد مدل های یادگیری ماشین خود استفاده کرده ایم.

A. امتیاز BLEU

یک تکنیک محبوب برای ارزیابی کیفیت ترجمه‌های تولید شده توسط ماشین در برابر مجموعه‌ای از ترجمه‌های مرجع ایجاد شده توسط انسان، BLEU (دو زبانه ارزیابی زیرمجموعه) نامیده می‌شود. [?]. اساس آن مقایسه همپوشانی n-gram بین ترجمه ماشینی و ترجمه های مرجع است.

امتیاز دقت، که تعداد n-گرم در ترجمه تولید شده توسط ماشین را در ترجمه های مرجع نیز ارزیابی می کند، ابتدا برای هر n-گرم تا حداکثر طول خاص (معمولاً 4)، قبل از تعیین امتیاز BLEU محاسبه می شود. برای جلوگیری از ترجمه های کوتاه و ناکافی، امتیاز دقیق …

Source link