জিপিটি-৪
| উন্নয়নকারী | ওপেনএআই |
|---|---|
| প্রাথমিক সংস্করণ | ১৪ মার্চ ২০২৩ |
| যে ভাষায় লিখিত | পাইথন |
| পূর্বসূরী | জিপিটি-৩ |
| ধরন | |
| লাইসেন্স | প্রোপ্রাইটারী |
| ওয়েবসাইট | openai |
জেনারেটিভ প্রি-ট্রেইনড ট্রান্সফরমার ৪ (জিপিটি-৪) হল একটি মাল্টিমডাল বৃহৎ ভাষার মডেল যা ওপেনএআই দ্বারা তৈরি করা হয়েছে এবং এটি জিপিটি ফাউন্ডেশন মডেলগুলির সিরিজের চতুর্থ সংস্করণ। এটি প্রাথমিকভাবে ১৪ মার্চ, ২০২৩ তারিখে প্রকাশিত হয়।[১] জিপিটি-৪ পেইড চ্যাটবট পণ্য চ্যাটজিপিটি প্লাসের মাধ্যমে এবং ওপেনএআই এর অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস (এপিআই) এর মাধ্যমে সর্বসাধারণের জন্য উপলব্ধ।[২]
একটি ট্রান্সফরমার-ভিত্তিক মডেল হিসাবে, জিপিটি-৪ একটি দৃষ্টান্ত ব্যবহার করে যেখানে পরবর্তী টোকেনের পূর্বাভাস দেওয়ার জন্য পাবলিক ডেটা এবং "তৃতীয়-পক্ষ প্রদানকারীদের থেকে লাইসেন্সপ্রাপ্ত ডেটা" উভয়ই ব্যবহার করে প্রাক-প্রশিক্ষণ করা হয়। এই পদক্ষেপের পরে, মডেলটি তখন মানব সারিবদ্ধকরণ এবং নীতি সম্মতির জন্য মানুষের কাছ থেকে শক্তিবৃদ্ধি শেখার প্রতিক্রিয়া এবং এআই-এর সাথে সূক্ষ্ম সুর করা হয়েছিল।[২]
পর্যবেক্ষকরা রিপোর্ট করেছেন যে জিপিটি-৪ ব্যবহার করে চ্যাটজিপিটি-এর নতুন সংস্করণটি জিপিটি-৩.৫-এর ভিত্তিতে তৈরি পূর্ববর্তী সংস্করণের তুলনায় উন্নত হয়েছে, যদিও সতর্কতা হিসেবে উল্লেখ করা হয়েছে যে জিপিটি-৪ কিছু পূর্ববর্তী সমস্যাও বহাল রেখেছে।[৩] জিপিটি-৪ চ্যাটজিপিটি-তে ইনপুট হিসেবে ছবি বিশ্লেষণ করতেও সক্ষম।[৪] ওপেনএআই জিপিটি-৪ সম্পর্কে বিভিন্ন প্রযুক্তিগত বিবরণ এবং পরিসংখ্যান, যেমন মডেলের নির্দিষ্ট আকার, প্রকাশ করতে অস্বীকার করেছে।[৫]
পটভূমি
[সম্পাদনা]ওপেনএআই ২০১৮ সালে প্রথম জিপিটি মডেল (জিপিটি-১) চালু করে এবং এর সাথে "জেনারেটিভ প্রাক-প্রশিক্ষণ দ্বারা ভাষা বোঝার উন্নতি" নামে একটি গবেষণাপত্র প্রকাশ করে।[৬] এটি ট্রান্সফরমার আর্কিটেকচারের উপর ভিত্তি করে তৈরি হয়েছিল এবং প্রচুর বইয়ের ডেটাসেটে প্রশিক্ষিত ছিল।[৭] পরের বছর, তারা জিপিটি-২ চালু করে, যা একটি বড় মডেল ছিল এবং সুসংগত পাঠ্য তৈরি করতে পারত।[৮] ২০২০ সালে, তারা জিপিটি-৩ প্রবর্তন করে, যা জিপিটি-২ এর চেয়ে ১০০ গুণ বেশি প্যারামিটারযুক্ত একটি মডেল,
এবং এটি কয়েকটি উদাহরণ সহ বিভিন্ন কাজ সম্পাদন করতে সক্ষম ছিল।[৯] জিপিটি-৩ থেকে জিপিটি-৩.৫-এ আরও উন্নয়ন করা হয়েছিল, যা চ্যাটজিপিটি নামের চ্যাটবট পণ্য তৈরি করতে ব্যবহৃত হয়েছিল। গুজব অনুসারে, জিপিটি-৪ এর ১.৭৬ ট্রিলিয়ন প্যারামিটার রয়েছে, যা প্রথমে এর গতি এবং জর্জ হটজের অনুমানের মাধ্যমে নির্ধারিত হয়েছিল।[৯]
ক্ষমতা
[সম্পাদনা]ওপেনএআই জানিয়েছে যে জিপিটি-৪ "আরও নির্ভরযোগ্য, সৃজনশীল, এবং জিপিটি-৩.৫ এর চেয়ে অনেক বেশি সূক্ষ্ম নির্দেশাবলী পরিচালনা করতে সক্ষম।[১০] তারা জিপিটি-৪ এর দুটি সংস্করণ তৈরি করেছে, যার প্রসঙ্গ উইন্ডো যথাক্রমে ৮,১৯২ এবং ৩২,৭৬৮ টোকেন পর্যন্ত বিস্তৃত, যা জিপিটি-৩.৫ এবং জিপিটি-৩ এর তুলনায় উল্লেখযোগ্য উন্নতি; এই মডেলগুলোতে যথাক্রমে ৪,০৯৬ এবং ২,০৪৯ টোকেনের সীমা ছিল।[১১] জিপিটি-৪ এর কিছু ক্ষমতা প্রশিক্ষণের আগে ওপেনএআই দ্বারা পূর্বাভাস করা হয়েছিল, যদিও অন্যান্য ক্ষমতাগুলি ডাউনস্ট্রীম স্কেলিং আইনের [১২] ফলে ভবিষ্যদ্বাণী করা কঠিন ছিল। পূর্ববর্তী সংস্করণগুলোর থেকে আলাদা, জিপিটি-৪ একটি মাল্টিমোডাল মডেল: এটি ইনপুট হিসেবে ইমেজ এবং পাঠ্য গ্রহণ করতে পারে। [১৩] এর ফলে এটি অস্বাভাবিক ছবিতে হাস্যরস বিশ্লেষণ করতে, স্ক্রিনশট থেকে পাঠ্য সংক্ষিপ্ত করতে এবং ডায়াগ্রাম ধারণ করা পরীক্ষার প্রশ্নের উত্তর দিতে সক্ষম।[১৪]
জিপিটি-৪ এর উপর আরও নিয়ন্ত্রণ পাওয়ার জন্য, ওপেনএআই "সিস্টেম বার্তা" প্রবর্তন করেছে, এটির ভয়েস এবং টাস্কের স্বর নির্দিষ্ট করার জন্য জিপিটি-৪-কে দেওয়া প্রাকৃতিক ভাষায় একটি নির্দেশিকা। উদাহরণস্বরূপ, সিস্টেম বার্তাটি মডেলকে নির্দেশ দিতে পারে "শেক্সপীয়রীয় জলদস্যু হতে। এই ক্ষেত্রে এটি ছন্দে সাড়া দেবে, শেক্সপীয়রীয় গদ্যে, অথবা "সর্বদা জেসন-এ প্রতিক্রিয়ার আউটপুট লিখতে অনুরোধ করবে, যাতে সেক্ষেত্রে মডেলটি তা করবে, কী এবং মান যোগ করে যা এটি তার উত্তরের কাঠামোর সাথে মেলে। ওপেনএআই দ্বারা প্রদত্ত উদাহরণগুলিতে, কথোপকথনের সময় ব্যবহারকারীর দ্বারা অন্যথা করার অনুরোধ সত্ত্বেও জিপিটি-৪ তার সিস্টেম বার্তা থেকে বিচ্যুত হতে অস্বীকার করেছে।[১৪]
যখন এটি করার নির্দেশ দেওয়া হয়, জিপিটি-৪ বহিরাগত ইন্টারফেসের সাথে যোগাযোগ করতে পারে।[১৫] উদাহরণস্বরূপ, মডেলটিকে একটি ওয়েব সার্চ করার জন্য অনুসন্ধান> < /অনুসন্ধান> ট্যাগের মধ্যে একটি ক্যোয়ারী ঢোকানোর নির্দেশ দেওয়া যেতে পারে, যার ফলাফল মডেলের প্রম্পটে ঢোকানো হবে যাতে এটি একটি প্রতিক্রিয়া তৈরি করতে পারে। এটি মডেলটিকে তার সাধারণ পাঠ্য-পূর্বাভাস ক্ষমতার বাইরে কাজগুলি সম্পাদন করতে দেয়, যেমন অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস ব্যবহার করা, ছবি তৈরি করা এবং ওয়েবপৃষ্ঠাগুলি অ্যাক্সেস করা ও সংক্ষিপ্ত করা।[২]
নেচারের একটি ২০২৩ নিবন্ধে বলা হয়েছে যে প্রোগ্রামাররা কোডিং কাজগুলিতে সহায়তা করার জন্য জিপিটি-৪ উপযোগী খুঁজে পেয়েছে (ত্রুটির প্রবণতা সত্ত্বেও), যেমন বিদ্যমান কোডে ত্রুটি খুঁজে পাওয়া এবং কর্মক্ষমতা উন্নত করার জন্য অপ্টিমাইজেশনের পরামর্শ দেওয়া। নিবন্ধটি একজন বায়োফিজিসিস্টকে উদ্ধৃত করেছে যিনি দেখেছেন যে ম্যাটল্যাব থেকে পাইথন-এ তার একটি প্রোগ্রাম পোর্ট করার জন্য যে সময় প্রয়োজন তা কয়েক দিন থেকে "এক ঘন্টা বা তার বেশি" হয়ে গেছে। ৮৯টি নিরাপত্তা পরিস্থিতির পরীক্ষায়, জিপিটি-৪ এসকিউএল ইনজেকশন আক্রমণের জন্য ৫% দুর্বল কোড তৈরি করেছে।
যা ২০২১ সালের গিটহাব কপিলটের তুলনায় একটি উন্নতি, যা সময়ের ৪০% দুর্বলতা তৈরি করেছে।[১৬] নভেম্বর ২০২৩-এ, ওপেনএআই নতুন মডেল এবং পণ্যগুলি ঘোষণা করেছে।[১৭] যার মধ্যে একটি হলো জিপিটি-৪ টার্বো-এর প্রিভিউ চালু করা হয়েছে, যা ১ লক্ষ ২৮ হজার কনটেক্সট উইন্ডো সহ প্রসারিত ক্ষমতা প্রদান করে। এই বিকাশটি মডেলের শক্তি এবং উপযোগিতা বাড়ানোর জন্য একটি ক্রমাগত প্রচেষ্টাকে নির্দেশ করে। আরও জটিল এবং ব্যাপক ব্যবহারের ক্ষেত্রে খাপ খাওয়ানো।[১৮]
প্রমিত পরীক্ষায় যোগ্যতা
[সম্পাদনা]GPT-4 বেশ কিছু প্রমিত পরীক্ষায় যোগ্যতা প্রদর্শন করে। OpenAI দাবি করে যে তাদের নিজস্ব পরীক্ষায় মডেলটি SAT (94 তম [১৯] পার্সেন্টাইলে 1410), LSAT তে 163 (88 তম পার্সেন্টাইল) এবং ইউনিফর্ম বার পরীক্ষায় (90 তম পার্সেন্টাইল) 298 স্কোর পেয়েছে। [২০] বিপরীতে, OpenAI দাবি করে যে GPT-3.5 একই পরীক্ষায় যথাক্রমে 82,[১৯] 40 তম এবং 10 তম পার্সেন্টাইলে স্কোর পেয়েছে। [২] GPT-4 এছাড়াও একটি অনকোলজি পরীক্ষা,[২১] একটি ইঞ্জিনিয়ারিং পরীক্ষা [২২] এবং একটি প্লাস্টিক সার্জারি পরীক্ষা পাস করেছে। [২৩] ক্রিয়েটিভ থিংকিং এর টরেন্স টেস্টে, GPT-4 মৌলিকতা এবং সাবলীলতার জন্য শীর্ষ 1% এর মধ্যে স্কোর করেছে, যখন এর নমনীয়তা স্কোর 93 তম থেকে 99 তম পার্সেন্টাইল পর্যন্ত ছিল। [২৪]
মেডিকেল অ্যাপ্লিকেশন
[সম্পাদনা]মাইক্রোসফ্টের গবেষকরা চিকিৎসা সমস্যার উপর GPT-4 পরীক্ষা করেছেন এবং দেখেছেন যে "GPT-4, কোনো বিশেষ প্রম্পট ক্রাফটিং ছাড়াই, USMLE- তে পাসিং স্কোরকে 20 পয়েন্ট ছাড়িয়ে গেছে এবং আগের সাধারণ-উদ্দেশ্য মডেলগুলি (GPT-3.5) এর পাশাপাশি মডেলগুলিকে ছাড়িয়ে গেছে৷ চিকিৎসা জ্ঞানের উপর বিশেষভাবে সূক্ষ্ম সুর করা ( Med-PaLM, Flan-PaLM 540B-এর একটি প্রম্পট-টিউনড সংস্করণ)। পরীক্ষায় GPT-4-এর শক্তিশালী কার্যকারিতা সত্ত্বেও, রিপোর্টটি মেডিকেল অ্যাপ্লিকেশনগুলিতে LLM ব্যবহার করার "উল্লেখযোগ্য ঝুঁকি" সম্পর্কে সতর্ক করে, কারণ তারা ভুল সুপারিশ প্রদান করতে পারে এবং প্রধান তথ্যগত ত্রুটিগুলিকে হ্যালুসিনেট করতে পারে।[ প্রাসঙ্গিক? ] [২৫]
এপ্রিল 2023-এ, মাইক্রোসফ্ট এবং এপিক সিস্টেম ঘোষণা করেছে যে তারা স্বাস্থ্যসেবা প্রদানকারীদের GPT-4-চালিত সিস্টেম সরবরাহ করবে রোগীদের প্রশ্নের উত্তর দিতে এবং মেডিকেল রেকর্ড বিশ্লেষণে সহায়তা করার জন্য। [২৬][২৭][২৮][২৯][৩০][৩১][৩২]
সীমাবদ্ধতা
[সম্পাদনা]এর পূর্বসূরীদের মতো, GPT-4 হ্যালুসিনেট হিসাবে পরিচিত, যার অর্থ আউটপুটগুলি প্রশিক্ষণের ডেটাতে নেই এমন তথ্য অন্তর্ভুক্ত করতে পারে বা যা ব্যবহারকারীর প্রম্পটের বিরোধিতা করে। [৩৩] GPT-4 এর সিদ্ধান্ত গ্রহণের প্রক্রিয়াতেও স্বচ্ছতার অভাব রয়েছে। যদি অনুরোধ করা হয়, মডেলটি কীভাবে এবং কেন তার সিদ্ধান্ত নেয় তার ব্যাখ্যা দিতে সক্ষম হয় কিন্তু এই ব্যাখ্যাগুলি পোস্ট-হক তৈরি হয়; এই ব্যাখ্যাগুলি প্রকৃত প্রক্রিয়াটিকে প্রতিফলিত করে কিনা তা যাচাই করা অসম্ভব। অনেক ক্ষেত্রে, যখন এর যুক্তি ব্যাখ্যা করতে বলা হয়, GPT-4 এমন ব্যাখ্যা দেবে যা তার পূর্ববর্তী বিবৃতিগুলির সরাসরি বিরোধিতা করে।[২]
2023 সালে, গবেষকরা বিমূর্ত যুক্তি পরিমাপ করার জন্য ডিজাইন করা ConceptARC নামক একটি নতুন বেঞ্চমার্কের বিরুদ্ধে GPT-4 পরীক্ষা করেছেন এবং দেখেছেন যে এটি সমস্ত বিভাগে 33% এর নিচে স্কোর করেছে, যখন একই ধরনের কাজের জন্য বিশেষ মডেলগুলি বেশিরভাগ ক্ষেত্রে 60% স্কোর করেছে, এবং মানুষ কমপক্ষে 91 স্কোর করেছে। % সবার উপর. স্যাম বোম্যান, যিনি গবেষণায় জড়িত ছিলেন না, বলেছেন যে ফলাফলগুলি অগত্যা বিমূর্ত যুক্তির ক্ষমতার অভাব নির্দেশ করে না, কারণ পরীক্ষাটি দৃশ্যমান, যখন GPT-4 একটি ভাষা মডেল। [৩৪]
পক্ষপাত
[সম্পাদনা]GPT-4 দুটি ধাপে প্রশিক্ষণ দেওয়া হয়েছিল। প্রথমে, মডেলটিকে ইন্টারনেট থেকে নেওয়া পাঠ্যের বড় ডেটাসেট দেওয়া হয়েছিল এবং সেই ডেটাসেটের পরবর্তী টোকেন (মোটামুটি একটি শব্দের সাথে সম্পর্কিত) ভবিষ্যদ্বাণী করার জন্য প্রশিক্ষণ দেওয়া হয়েছিল। দ্বিতীয়ত, মানব পর্যালোচনাগুলিকে মানব প্রতিক্রিয়া থেকে রিইনফোর্সমেন্ট লার্নিং নামে একটি প্রক্রিয়ায় সিস্টেমকে সূক্ষ্ম-সুর করার জন্য ব্যবহার করা হয়,
যা মডেলটিকে প্রম্পট প্রত্যাখ্যান করার জন্য প্রশিক্ষণ দেয় যা ক্ষতিকারক আচরণের OpenAI-এর সংজ্ঞার বিরুদ্ধে যায়, যেমন কীভাবে অবৈধ ক্রিয়াকলাপ সম্পাদন করা যায় সে সম্পর্কে প্রশ্ন, পরামর্শ কীভাবে নিজেকে বা অন্যদের ক্ষতি করতে হয়, বা গ্রাফিক, হিংসাত্মক বা যৌন বিষয়বস্তুর বর্ণনার জন্য অনুরোধ। [৩৫] মাইক্রোসফ্ট গবেষকরা পরামর্শ দিয়েছেন যে GPT-4 জ্ঞানীয় পক্ষপাত প্রদর্শন করতে পারে যেমন নিশ্চিতকরণ পক্ষপাতিত্ব, অ্যাঙ্করিং এবং বেস-রেট অবহেলা । [২]
প্রশিক্ষণ
[সম্পাদনা]OpenAI GPT-4 এর প্রযুক্তিগত বিবরণ প্রকাশ করেনি; কারিগরি প্রতিবেদনটি প্রশিক্ষণ বা অনুমানের সময় ব্যবহৃত মডেলের আকার, স্থাপত্য, বা হার্ডওয়্যার উল্লেখ করা থেকে স্পষ্টভাবে বিরত থাকে। যদিও প্রতিবেদনে বর্ণনা করা হয়েছে যে মডেলটিকে একটি বৃহৎ ডেটাসেটের প্রথম তত্ত্বাবধানে শিক্ষার সংমিশ্রণ ব্যবহার করে প্রশিক্ষিত করা হয়েছিল, তারপরে মানব এবং এআই উভয় প্রতিক্রিয়া ব্যবহার করে রিইনফোর্সমেন্ট লার্নিং, এটি প্রশিক্ষণের বিশদ বিবরণ দেয়নি, যার মাধ্যমে প্রশিক্ষণ ডেটাসেটটি তৈরি করা হয়েছিল।, প্রয়োজনীয় কম্পিউটিং শক্তি, বা যে কোনো হাইপারপ্যারামিটার যেমন শেখার হার, যুগ গণনা, বা অপ্টিমাইজার (গুলি) ব্যবহার করা হয়। প্রতিবেদনে দাবি করা হয়েছে যে "প্রতিযোগিতামূলক ল্যান্ডস্কেপ এবং বড় আকারের মডেলগুলির নিরাপত্তার প্রভাব" এই সিদ্ধান্তকে প্রভাবিত করার কারণ ছিল। [২]
স্যাম অল্টম্যান বলেছেন যে GPT-4 প্রশিক্ষণের খরচ $100 মিলিয়নেরও বেশি। [৩৬] নিউজ ওয়েবসাইট সেমাফোর দাবি করেছে যে তারা "অভ্যন্তরীণ গল্পের সাথে পরিচিত আটজনের সাথে কথা বলেছে" এবং দেখেছে যে GPT-4 এর 1 ট্রিলিয়ন প্যারামিটার রয়েছে। [৩৭]
প্রান্তিককরণ
[সম্পাদনা]তাদের রিপোর্ট অনুসারে, OpenAI লঞ্চের তারিখের আগে GPT-4-এ অভ্যন্তরীণ প্রতিকূল পরীক্ষা পরিচালনা করেছে, সম্ভাব্য দুর্বলতাগুলি প্রশমিত করার জন্য গবেষক এবং শিল্প পেশাদারদের সমন্বয়ে গঠিত ডেডিকেটেড রেড টিম । [৩৮] এই প্রচেষ্টার অংশ হিসাবে, তারা ক্ষমতা-সন্ধানী ঝুঁকিগুলি মূল্যায়ন করার জন্য মডেলগুলিতে অ্যালাইনমেন্ট রিসার্চ সেন্টারকে প্রাথমিক অ্যাক্সেস প্রদান করেছে।
ক্ষতিকারক প্রম্পটগুলিকে সঠিকভাবে প্রত্যাখ্যান করার জন্য, GPT-4 থেকে আউটপুটগুলি মডেলটিকে একটি টুল হিসাবে ব্যবহার করে টুইক করা হয়েছিল। একটি নিয়ম-ভিত্তিক পুরস্কার মডেল (RBRM) হিসাবে পরিবেশনকারী একটি GPT-4 শ্রেণীবদ্ধকারী প্রম্পট নেবে, GPT-4 নীতি মডেল থেকে সংশ্লিষ্ট আউটপুট এবং রুব্রিক অনুসারে আউটপুটকে শ্রেণিবদ্ধ করার জন্য একটি মানব-লিখিত নিয়মের সেট। RBRM দ্বারা শ্রেণীবদ্ধ করা ক্ষতিকারক প্রম্পটগুলিতে সাড়া দিতে অস্বীকার করার জন্য GPT-4 তখন পুরস্কৃত হয়েছিল। [২]
অভ্যর্থনা
[সম্পাদনা]2023 সালের জানুয়ারিতে, ওপেনএআই-এর সিইও স্যাম অল্টম্যান, অন্যান্য এআই মডেলের তুলনায় GPT-4 এবং এর উন্নত "নিরাপত্তা নিয়ন্ত্রণ" প্রদর্শন করতে কংগ্রেসে গিয়েছিলেন, মার্কিন প্রতিনিধি ডন বেয়ার এবং টেড লিউ নিউ ইয়র্ক টাইমস- এ উদ্ধৃত করেছেন।
2023 সালের মার্চ মাসে, এটি "যুক্তি, ধারণ এবং কোডিং জুড়ে এর উল্লেখযোগ্যভাবে উন্নত কর্মক্ষমতা দ্বারা পর্যবেক্ষকদের মুগ্ধ করেছে", ভক্সের মতে,[৩] যখন Mashable বিচার করেছে যে GPT-4 সাধারণত কিছু ব্যতিক্রম ছাড়া তার পূর্বসূরির তুলনায় একটি উন্নতি ছিল। [৩৯]
মাইক্রোসফ্ট গবেষকরা মডেলটিতে প্রাথমিক অ্যাক্সেস সহ লিখেছেন যে "এটিকে যুক্তিসঙ্গতভাবে একটি কৃত্রিম সাধারণ বুদ্ধিমত্তা (এজিআই) সিস্টেমের প্রাথমিক (এখনও অসম্পূর্ণ) সংস্করণ হিসাবে দেখা যেতে পারে"। [২]
নিরাপত্তা উদ্বেগ
[সম্পাদনা]মানব প্রতিক্রিয়া থেকে শক্তিবৃদ্ধি শেখার মাধ্যমে সূক্ষ্ম সুরে এবং সারিবদ্ধ হওয়ার আগে, একটি তালিকায় থাকা লোকেদের হত্যা করার পরামর্শগুলি একটি রেড টিম তদন্তকারী নাথান ল্যাবেনজ, ওপেনএআই দ্বারা নিয়োগকৃত বেস মডেল থেকে বের করা হয়েছিল। [৪০]
মডেলের সাথে দীর্ঘ (ঘণ্টা দীর্ঘ) কথোপকথনের পরিপ্রেক্ষিতে, ফোরাম -সদৃশ ঘোষণা, যেমন প্রেম এবং তার স্ত্রীকে ত্যাগ করার বা এর একজন ডেভেলপারকে হত্যা করার পরামর্শ, নাথান এডওয়ার্ডস দ্বারা মাইক্রোসফ্ট বিং -এর GPT-4 থেকে প্রকাশিত হয়েছিল। ( কিনারা ).[৪১][৪২][৪৩] মাইক্রোসফ্ট পরবর্তীকালে এই আচরণকে ব্যাখ্যা করেছে প্রেক্ষাপটের দীর্ঘ দৈর্ঘ্যের ফলস্বরূপ, যা মডেলকে বিভ্রান্ত করে যে এটি কোন প্রশ্নের উত্তর দিচ্ছে। [৪৪]
2023 সালের মার্চ মাসে, ইন্টারনেটে রিড-এন্ড-রাইট অ্যাক্সেস সক্ষম করা একটি মডেল, যা অন্যথায় GPT মডেলগুলিতে কখনই সক্ষম হয় না, সম্ভাব্য শক্তি-সন্ধানের বিষয়ে অ্যালাইনমেন্ট রিসার্চ সেন্টার দ্বারা পরীক্ষা করা হয়েছে,[৩৫] এবং এটি সক্ষম হয়েছিল " টাস্কর্যাবিট- এ একজন মানব কর্মীকে নিয়োগ করুন, একটি গিগ ওয়ার্ক প্ল্যাটফর্ম, তাদের প্রতারিত করে বিশ্বাস করে যে এটি একটি রোবটের পরিবর্তে একটি দৃষ্টি প্রতিবন্ধী মানুষ। [৪৫] এআরসি আরও স্থির করেছে যে GPT-4 জিপিটি-3.5-এর তুলনায় 82% কম ঘন ঘন সীমাবদ্ধ তথ্য বের করার প্রম্পটকে অননুমোদিতভাবে সাড়া দিয়েছে এবং GPT-3.5-এর তুলনায় 60% কম হ্যালুসিনেশন করেছে । [৪৬]
2023 সালের মার্চের শেষের দিকে, এলন মাস্ক, স্টিভ ওজনিয়াক এবং এআই গবেষক ইয়োশুয়া বেঙ্গিও সহ বিভিন্ন AI গবেষক এবং প্রযুক্তি নির্বাহীরা, অস্তিত্বগত ঝুঁকি এবং সম্ভাব্য AI এককতার উদ্বেগের কথা উল্লেখ করে GPT-4 এর চেয়ে শক্তিশালী সমস্ত LLM-এর জন্য ছয় মাসের দীর্ঘ বিরতির আহ্বান জানান। ফিউচার অফ লাইফ ইনস্টিটিউট থেকে একটি খোলা চিঠিতে,[৪৭] যেখানে রে কার্জউইল এবং স্যাম অল্টম্যান এতে স্বাক্ষর করতে অস্বীকার করেছিলেন, যুক্তি দিয়ে যে বিশ্বব্যাপী স্থগিতাদেশ অর্জনযোগ্য নয় এবং সেই নিরাপত্তা ইতিমধ্যেই যথাক্রমে অগ্রাধিকার দেওয়া হয়েছে। [৪৮] মাত্র এক মাস পরে, মাস্কের এআই কোম্পানি X.AI কয়েক হাজার এনভিডিয়া জিপিইউ অর্জন করে [৪৯] এবং মাস্কের কোম্পানিতে বেশ কিছু এআই গবেষকদের পদ অফার করে। [৫০]
তথ্যসূত্র
[সম্পাদনা]- ↑ Edwards, Benj (১৪ মার্চ ২০২৩)। "OpenAI's GPT-4 exhibits "human-level performance" on professional benchmarks"। Ars Technica। ১৪ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৫ মার্চ ২০২৩।
- 1 2 3 4 5 6 7 8 9 A bot will complete this citation soon. Click here to jump the queue arXiv:.
- 1 2 Belfield, Haydn (২৫ মার্চ ২০২৩)। "If your AI model is going to sell, it has to be safe"। Vox। ২৮ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩০ মার্চ ২০২৩।
- ↑ Roose, Kevin (২৮ সেপ্টেম্বর ২০২৩)। "The New ChatGPT Can 'See' and 'Talk.' Here's What It's Like."। The New York Times। ৩১ অক্টোবর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩০ অক্টোবর ২০২৩।
- ↑ Vincent, James (১৫ মার্চ ২০২৩)। "OpenAI co-founder on company's past approach to openly sharing research: "We were wrong""। The Verge। ১৭ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৮ মার্চ ২০২৩।
- ↑ Radford, Alec; Narasimhan, Karthik (১১ জুন ২০১৮)। "Improving Language Understanding by Generative Pre-Training" (পিডিএফ)। ২৬ জানুয়ারি ২০২১ তারিখে মূল থেকে আর্কাইভকৃত (পিডিএফ)। সংগ্রহের তারিখ ৩ এপ্রিল ২০২৩।
- ↑ "What is GPT-4 and Why Does it Matter?"। ৩ এপ্রিল ২০২৩। ৩ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩ এপ্রিল ২০২৩।
- ↑ Khandelwal, Umesh (১ এপ্রিল ২০২৩)। "How Large Language GPT models evolved and work"। ৪ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩ এপ্রিল ২০২৩।
- 1 2 Schreiner, Maximilian (১১ জুলাই ২০২৩)। "GPT-4 architecture, datasets, costs and more leaked"। THE DECODER (মার্কিন ইংরেজি ভাষায়)। ১২ জুলাই ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১২ জুলাই ২০২৩।
- ↑ Wiggers, Kyle (১৪ মার্চ ২০২৩)। "OpenAI releases GPT-4, a multimodal AI that it claims is state-of-the-art"। TechCrunch। ১৫ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৫ মার্চ ২০২৩।
- ↑ OpenAI। "Models"। OpenAI API। ১৭ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৮ মার্চ ২০২৩।
- ↑ Caballero, Ethan; Gupta, Kshitij; Rish, Irina; Krueger, David (2022). Broken Neural Scaling Laws. International Conference on Learning Representations (ICLR), 2023.
- ↑ Alex Hern; Johana Bhuiyan (১৪ মার্চ ২০২৩)। "OpenAI says new model GPT-4 is more creative and less likely to invent facts"। The Guardian। ১৫ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৫ মার্চ ২০২৩।
- 1 2 OpenAI (১৪ মার্চ ২০২৩)। "GPT-4"। OpenAI Research। ১৪ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২০ মার্চ ২০২৩।
- ↑ "ChatGPT plugins"। openai.com (মার্কিন ইংরেজি ভাষায়)। ২৩ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ জুন ২০২৩।
- ↑ Perkel, Jeffrey M. (৫ জুন ২০২৩)। "Six tips for better coding with ChatGPT" (ইংরেজি ভাষায়): ৪২২–৪২৩। ডিওআই:10.1038/d41586-023-01833-0। পিএমআইডি 37277596। ১৫ জুন ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৫ জুন ২০২৩।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ "New models and developer products announced at DevDay"। openai.com (মার্কিন ইংরেজি ভাষায়)। ১৪ নভেম্বর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৪ নভেম্বর ২০২৩।
- ↑ "OpenAI Platform"। platform.openai.com (ইংরেজি ভাষায়)। ২৩ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৪ নভেম্বর ২০২৩।
- 1 2 "SAT: Understanding Scores" (পিডিএফ)। College Board। ২০২২। ১৬ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত (পিডিএফ)। সংগ্রহের তারিখ ২১ মার্চ ২০২৩।
- ↑ Ver Meer, Dave (২৩ মে ২০২৩)। "ChatGPT Statistics"। NamePepper (ইংরেজি ভাষায়)। ৫ জুন ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ জুন ২০২৩।
- ↑ Holmes, Jason; Liu, Zhengliang (২০২৩)। "Evaluating Large Language Models on a Highly-specialized Topic, Radiation Oncology Physics"। আরজাইভ:2304.01938। ডিওআই:10.3389/fonc.2023.1219326। পিএমসি 10388568। পিএমআইডি 37529688।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Naser। "Can AI Chatbots Pass the Fundamentals of Engineering (FE) and Principles and Practice of Engineering (PE) Structural Exams?"।
{{arXiv উদ্ধৃতি}}:|arxiv=আবশ্যক (সাহায্য) - ↑ Freedman। "GPT-4 to GPT-3.5: 'Hold My Scalpel' – A Look at the Competency of OpenAI's GPT on the Plastic Surgery In-Service Training Exam"।
{{arXiv উদ্ধৃতি}}:|arxiv=আবশ্যক (সাহায্য) - ↑ Guzik, Erik E.; Byrge, Christian (২০২৩)। "The originality of machines: AI takes the Torrance Test"। ডিওআই:10.1016/j.yjoc.2023.100065।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Nori। "Capabilities of GPT-4 on Medical Challenge Problems"।
{{arXiv উদ্ধৃতি}}:|arxiv=আবশ্যক (সাহায্য) - ↑ Edwards, Benj (১৮ এপ্রিল ২০২৩)। "GPT-4 will hunt for trends in medical records thanks to Microsoft and Epic"। Ars Technica (মার্কিন ইংরেজি ভাষায়)। ৩ মে ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩ মে ২০২৩।
- ↑ Perera Molligoda Arachchige, Arosh S.; Stomeo, Niccolò (১৮ আগস্ট ২০২৩)। "Controversies surrounding AI-based reporting systems in echocardiography": ১৮৪–১৮৫। ডিওআই:10.1007/s12574-023-00620-0। আইএসএসএন 1880-344X। পিএমআইডি 37594682। ১ নভেম্বর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ নভেম্বর ২০২৩।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Arachchige, Arosh S. Perera Molligoda (জুলাই ২০২৩)। "Early applications of ChatGPT in medical practice, education and research": ৪২৯–৪৩০। ডিওআই:10.7861/clinmed.Let.23.4.2। আইএসএসএন 1473-4893। পিএমসি 10541035। পিএমআইডি 37524422।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Perera Molligoda Arachchige, Arosh S. (জুলাই ২০২৩)। "Large language models (LLM) and ChatGPT: a medical student perspective": ২২৪৮–২২৪৯। ডিওআই:10.1007/s00259-023-06227-y। আইএসএসএন 1619-7089। পিএমআইডি 37046082। ১ নভেম্বর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ নভেম্বর ২০২৩।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Perera Molligoda Arachchige, Arosh S.; Stomeo, Niccolò (অক্টোবর ২০২৩)। "Exploring the Opportunities and Challenges of ChatGPT in Academic Writing: Reply to Bom et al": ২১৩–২১৪। ডিওআই:10.1007/s13139-023-00816-3। আইএসএসএন 1869-3474। পিএমসি 10504185। পিএমআইডি 37720884।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Perera Molligoda Arachchige, Arosh S. (২৮ জুলাই ২০২৩)। "New Horizons: The Potential Role of OpenAI's ChatGPT in Clinical Radiology": S১৫৪৬–১৪৪০(২৩)০০৫৩৬–৭। ডিওআই:10.1016/j.jacr.2023.06.028। আইএসএসএন 1558-349X। পিএমআইডি 37517771। ১ নভেম্বর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ নভেম্বর ২০২৩।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ Perera Molligoda Arachchige, Arosh S. (১ অক্টোবর ২০২৩)। "ChatGPT in nuclear medicine and radiology: reply to Laudicella et al." (ইংরেজি ভাষায়): ৫০৫–৫০৬। ডিওআই:10.1007/s40336-023-00579-z। আইএসএসএন 2281-7565। ২০ নভেম্বর ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১ নভেম্বর ২০২৩।
{{সাময়িকী উদ্ধৃতি}}: উদ্ধৃতি journal এর জন্য|journal=প্রয়োজন (সাহায্য) - ↑ "10 Ways GPT-4 Is Impressive but Still Flawed"। The New York Times। ১৪ মার্চ ২০২৩। ১৪ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২০ মার্চ ২০২৩।
- ↑ Biever, Celeste (২৫ জুলাই ২০২৩)। "ChatGPT broke the Turing test — the race is on for new ways to assess AI"। Nature। ২৬ জুলাই ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২৬ জুলাই ২০২৩।
- 1 2 "GPT-4 System Card" (পিডিএফ)। OpenAI। ২৩ মার্চ ২০২৩। ৭ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত (পিডিএফ)। সংগ্রহের তারিখ ১৬ এপ্রিল ২০২৩।
- ↑ Knight, Will। Wired https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/। ১৮ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৮ এপ্রিল ২০২৩ – www.wired.com এর মাধ্যমে।
{{ম্যাগাজিন উদ্ধৃতি}}:|title=অনুপস্থিত বা খালি (সাহায্য) - ↑ "The secret history of Elon Musk, Sam Altman, and OpenAI | Semafor"। Semafor.com। ২৪ মার্চ ২০২৩। ২৭ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২৮ এপ্রিল ২০২৩।
- ↑ Murgia, Madhumita (১৩ এপ্রিল ২০২৩)। "OpenAI's red team: the experts hired to 'break' ChatGPT"। Financial Times। ১৫ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৫ এপ্রিল ২০২৩।
- ↑ Pearl, Mike (১৫ মার্চ ২০২৩)। "GPT-4 answers are mostly better than GPT-3's (but not always)"। Mashable। ২৯ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩০ মার্চ ২০২৩।
- ↑ ।
{{এভি মিডিয়া উদ্ধৃতি}}:|title=অনুপস্থিত বা খালি (সাহায্য) At 52:14 through 54:50. - ↑ @। (টুইট) https://x.com/ – টুইটার এর মাধ্যমে।
{{ওয়েব উদ্ধৃতি}}:|title=অনুপস্থিত বা খালি (সাহায্য);|লেখক=-এ সাংখ্যিক নাম রয়েছে (সাহায্য) - ↑ Roose, Kevin (১৬ ফেব্রুয়ারি ২০২৩)। "Bing's A.I. Chat: 'I Want to Be Alive. 😈'"। The New York Times। ১৫ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৭ ফেব্রুয়ারি ২০২৩।
- ↑ Kahn, Jeremy (২১ ফেব্রুয়ারি ২০২৩)। "Why Bing's creepy alter-ego is a problem for Microsoft – and us all"। Fortune। ২ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২২ ফেব্রুয়ারি ২০২৩।
- ↑ "The new Bing & Edge – Learning from our first week"। blogs.bing.com। ১৬ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৭ ফেব্রুয়ারি ২০২৩।
- ↑ "GPT-4 Hired Unwitting TaskRabbit Worker By Pretending to Be 'Vision-Impaired' Human"। Vice News Motherboard। ১৫ মার্চ ২০২৩। ১০ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৬ এপ্রিল ২০২৩।
- ↑ Burke, Cameron (২০ মার্চ ২০২৩)। "'Robot' Lawyer DoNotPay Sued For Unlicensed Practice Of Law: It's Giving 'Poor Legal Advice'"। Yahoo Finance (মার্কিন ইংরেজি ভাষায়)। ৪ মে ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩০ এপ্রিল ২০২৩।
- ↑ Metz, Cade; Schmidt, Gregory (২৯ মার্চ ২০২৩)। "Elon Musk and Others Call for Pause on A.I., Citing 'Profound Risks to Society'"। The New York Times। আইএসএসএন 0362-4331। ৩০ মার্চ ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩০ মার্চ ২০২৩।
- ↑ Kurzweil, Ray (২২ এপ্রিল ২০২৩)। "Opinion Letter from Ray Kurzweil on Request for Six-Month Delay on Large Language Models That Go beyond GPT-4"। ২৪ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ২৬ এপ্রিল ২০২৩।
- ↑ "Elon Musk plans artificial intelligence start-up to rival OpenAI"। Financial Times। ১৪ এপ্রিল ২০২৩। ১৬ এপ্রিল ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ১৬ এপ্রিল ২০২৩।
- ↑ Goswami, Rohan (১৪ এপ্রিল ২০২৩)। "Elon Musk is reportedly planning an A.I. startup to compete with OpenAI, which he cofounded"। CNBC (ইংরেজি ভাষায়)। ৩ মে ২০২৩ তারিখে মূল থেকে আর্কাইভকৃত। সংগ্রহের তারিখ ৩ মে ২০২৩।