
@neptuneAI_patrycjaنپتون.ای پاتریجا جنکنر
پاتریجا | متخصص رشد در https://neptune.ai
بگذارید داستانی را به اشتراک بگذارم که بارها بارها شنیده ام.
“… ما در حال توسعه یک مدل ML با تیم من بودیم ، آزمایش های زیادی انجام دادیم و نتایج امیدوار کننده ای گرفتیم …
… متأسفانه ، ما دقیقاً نمی توانستیم بگوییم که بهترین عملکرد را دارد زیرا فراموش کردیم برخی از پارامترهای مدل و نسخه های مجموعه داده را ذخیره کنیم
… بعد از چند هفته ، ما حتی مطمئن نبودیم که در واقع چه چیزی را امتحان کرده ایم و باید تقریباً همه چیز را دوباره اجرا کنیم ”
– محقق متاسفانه در ML.
و حقیقت این است که ، وقتی مدل های ML را توسعه می دهید ، آزمایش های زیادی را انجام خواهید داد.
این آزمایشات ممکن است:
- از مدل های مختلف و ابر پارامترهای مدل استفاده کنید ،
- از داده های مختلف آموزش یا ارزیابی استفاده کنید ،
- کد متفاوتی را اجرا کنید (از جمله این تغییر کوچکی که می خواستید سریع آزمایش کنید) ،
- همان کد را در محیط دیگری اجرا کنید (نمی دانید کدام نسخه PyTorch یا Tensorflow نصب شده است)
و در نتیجه ، آنها می توانند معیارهای ارزیابی کاملاً متفاوتی ایجاد کنند.
پیگیری همه این اطلاعات می تواند خیلی سریع سخت شود. به خصوص اگر می خواهید آن آزمایش ها را سازماندهی و مقایسه کنید و اطمینان داشته باشید که می دانید کدام تنظیم بهترین نتیجه را به همراه داشته است.
این همان جایی است که ردیابی آزمایش ML وارد می شود.