স্মারক প্রকৌশল
এই নিবন্ধটিতে এত বেশী কারিগরি পরিভাষা ব্যবহার করা হয়েছে যে হয়ত অধিকাংশ পাঠকের জন্য এটি বোঝা দুরূহ হতে পারে। |
স্মারক প্রকৌশল (ইংরেজিতে প্রম্পট ইঞ্জিনিয়ারিং) হলো কৃত্রিম বুদ্ধিমত্তা এবং স্বাভাবিক ভাষা প্রক্রিয়াজাতকরণ বিষয়ক একটি ধারণা। মূল অর্থে স্মারক (প্রম্পট) হল নাট্যকলাতে ব্যবহৃত একটি কৌশল যেখানে কোনও অভিনেতাকে একটি শব্দ বা বাক্য চুপিচপি বলে তার ভুলে যাওয়া সংলাপের খেই ধরিয়ে দেওয়া হয় অর্থাৎ স্মরণ করিয়ে দেওয়া হয়। কৃত্রিম বুদ্ধিমত্তার প্রেক্ষাপটে একটি স্মারক হল মানুষের মুখের স্বাভাবিক ভাষায় লেখা একটি বর্ণনা, যেটিকে যান্ত্রিক শিখনের প্রাক-প্রশিক্ষণ দশাতে অলেবেলকৃত উপাত্তের সাথে যোগ করে দিতে হয়। স্মারক প্রকৌশলে কোনও নির্ধারিত কাজের (টাস্ক) বর্ণনা এমনভাবে প্রবিষ্টিতে (ইনপুটে) সংযুক্ত করা হয় যাতে প্রবিষ্টিটি একটি প্রশ্ন হিসাবে কাজ করে। স্মারক প্রকৌশল সাধারণত এক বা একাধিক নির্ধারিত কাজকে স্মারক-ভিত্তিক উপাত্ত সেটে রূপান্তর করার কাজ সম্পাদন করে। এই প্রক্রিয়ায় মূলত ভাষার প্রতিমানগুলিকে প্রশিক্ষণ দেওয়া হয়, যা "স্মারক-ভিত্তিক শিখন (প্রম্পট-বেজড লার্নিং) বা শুধুমাত্র "স্মারক শিখন" (প্রম্পট লার্নিং) নামে পরিচিত।[১] [২] স্মারক প্রকৌশলের সাহায্যে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ভাষা প্রতিমানগুলি অধিক কার্যকরী হয়ে ওঠে।[৩] এটি অনেক সময় প্রাক-প্রশিক্ষিত ভাষা প্রতিমানগুলির উপরও কাজ করে, যেখানে শুধুমাত্র স্মারকের উপস্থাপনা শেখা হয়, যা "উপসর্গ-সামঞ্জস্যবিধান" (প্রিফিক্স টিউনিং) বা "স্মারক সামঞ্জস্যবিধান" (প্রম্পট টিউনিং) হিসেবে পরিচিত।[৪] [৫]
তথ্যসূত্র
[সম্পাদনা]- ↑ Alec Radford; Jeffrey Wu; Rewon Child; David Luan; Dario Amodei; Ilya Sutskever (২০১৯), Language Models are Unsupervised Multitask Learners (পিডিএফ) (ইংরেজি ভাষায়), Wikidata Q95726769
- ↑ Pengfei Liu; Weizhe Yuan; Jinlan Fu; Zhengbao Jiang; Hiroaki Hayashi; Graham Neubig (২৮ জুলাই ২০২১), Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing (পিডিএফ) (ইংরেজি ভাষায়), arXiv:2107.13586 , Wikidata Q109286554
- ↑ "AI Prompt Engineering: Optimizing Inputs for Machine Learning Models"। Prompt Engineering Wiki। জানুয়ারি ৮, ২০২৩। ফেব্রুয়ারি ৪, ২০২৩ তারিখে মূল থেকে আর্কাইভ করা। সংগ্রহের তারিখ ফেব্রুয়ারি ৪, ২০২৩।
- ↑ Xiang Lisa Li; Percy Liang (আগস্ট ২০২১)। "Prefix-Tuning: Optimizing Continuous Prompts for Generation" (পিডিএফ)। Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (ইংরেজি ভাষায়): 4582–4597। ডিওআই:10.18653/V1/2021.ACL-LONG.353। Wikidata Q110887424।
- ↑ Brian Lester; Rami Al-Rfou; Noah Constant (নভেম্বর ২০২১)। "The Power of Scale for Parameter-Efficient Prompt Tuning" (পিডিএফ)। Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (ইংরেজি ভাষায়): 3045–3059। arXiv:2104.08691 । ডিওআই:10.18653/V1/2021.EMNLP-MAIN.243। Wikidata Q110887400।