🕐 --:--
-- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
381818 مقال 245 مصدر نشط 66 قناة مباشرة 5050 خبر اليوم
آخر تحديث: منذ 0 ثانية

Fine-tuning GPT-2 from human preferences

تكنولوجيا
OpenAI Blog
2019/09/19 - 07:00 501 مشاهدة
We’ve fine-tuned the 774M parameter GPT-2 language model using human feedback for various tasks, successfully matching the preferences of the external human labelers, though those preferences did not always match our own. Specifically, for summarization tasks the labelers preferred sentences copied wholesale from the input (we’d only asked them to ensure accuracy), so our models learned to copy. Summarization required 60k human labels; simpler tasks which continue text in various styles required only 5k. Our motivation is to move safety techniques closer to the general task of “machines talking to humans,” which we believe is key to extracting information about human values.
مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤