AI-এর যুগে মানবিক মূল্যবোধের মানে কী?
নিরপেক্ষ কোডের মিথ
কৃত্রিম বুদ্ধিমত্তা বা AI নিয়ে আলোচনা প্রায়শই প্রযুক্তিগত মানদণ্ড এবং প্রসেসিং পাওয়ারের চারপাশে ঘোরে। আমরা প্যারামিটার এবং পেটাবাইটের কথা এমনভাবে বলি যেন এগুলোই একমাত্র গুরুত্বপূর্ণ বিষয়। কিন্তু এই ফোকাসটি আরও বড় একটি বাস্তবতাকে আড়াল করে। প্রতিটি লার্জ ল্যাঙ্গুয়েজ মডেল হলো সেই মানবিক পছন্দগুলোরই প্রতিফলন, যা একে তৈরি করেছে। নিরপেক্ষ অ্যালগরিদম বলে কিছু নেই। যখন একটি সিস্টেম কোনো উত্তর দেয়, তখন তা কোনো বস্তুনিষ্ঠ সত্যের শূন্যস্থান থেকে আসে না। এটি ডেভেলপার এবং ডেটা লেবেলারদের দ্বারা নির্ধারিত নির্দিষ্ট কিছু মূল্যবোধের প্রতিফলন। মূল কথাটি সহজ। আমরা মেশিনকে চিন্তা করতে শেখাচ্ছি না। আমরা তাদের আমাদের নির্দিষ্ট, প্রায়শই স্ববিরোধী, সামাজিক নিয়মগুলো নকল করতে শেখাচ্ছি। যুক্তি থেকে নৈতিকতায় এই পরিবর্তনটি ইন্টারনেটের আবিষ্কারের পর কম্পিউটিংয়ের সবচেয়ে বড় পরিবর্তন। এটি হার্ডওয়্যার থেকে দায়িত্ব সরিয়ে সেই মানুষদের ওপর নিয়ে আসে, যারা ঠিক করে যে একটি “সঠিক” উত্তর কেমন হওয়া উচিত।
শিল্পটি সম্প্রতি কাঁচা সক্ষমতা থেকে নিরাপত্তা এবং অ্যালাইনমেন্টের দিকে ঝুঁকেছে। এটি শুনতে প্রযুক্তিগত মনে হলেও, এটি আসলে একটি গভীর রাজনৈতিক প্রক্রিয়া। যখন আমরা একটি মডেলকে সাহায্যকারী, ক্ষতিকর নয় এমন এবং সৎ হতে বলি, তখন আমরা এমন শব্দ ব্যবহার করি যার অর্থ বিভিন্ন সংস্কৃতিতে ভিন্ন ভিন্ন হয়। সান ফ্রান্সিসকোর বোর্ডরুমে যে মূল্যবোধটি সর্বজনীন মনে হয়, জাকার্তায় তা আপত্তিকর বা অপ্রাসঙ্গিক হতে পারে। বৈশ্বিক স্কেল এবং স্থানীয় মূল্যবোধের মধ্যে এই টানাপোড়েনই আধুনিক প্রযুক্তির প্রধান দ্বন্দ্ব। আমাদের AI-কে একটি স্বয়ংক্রিয় শক্তি হিসেবে দেখা বন্ধ করতে হবে এবং একে মানবিক ইচ্ছার একটি কিউরেটেড এক্সটেনশন হিসেবে দেখা শুরু করতে হবে। এর জন্য মার্কেটিং হাইপের বাইরে গিয়ে পর্দার আড়ালে নেওয়া আসল সিদ্ধান্তগুলো দেখতে হবে।
মানবিক পছন্দের যান্ত্রিক আয়না
মেশিনে মূল্যবোধ কীভাবে প্রবেশ করে তা বুঝতে হলে আপনাকে Reinforcement Learning from Human Feedback বা RLHF দেখতে হবে। এটি এমন একটি প্রক্রিয়া যেখানে হাজার হাজার মানব ঠিকাদার একটি মডেলের বিভিন্ন উত্তরকে র্যাঙ্ক করে। তারা হয়তো একটি উত্তরের দুটি সংস্করণ দেখে এবং যেটি তাদের কাছে বেশি ভদ্র বা সঠিক মনে হয় সেটিতে ক্লিক করে। সময়ের সাথে সাথে, মডেলটি নির্দিষ্ট প্যাটার্নের সাথে এই মানবিক পছন্দগুলোকে যুক্ত করতে শেখে। এটি সত্যের সন্ধান নয়। এটি অনুমোদনের সন্ধান। মডেলটিকে মূলত তার মানব মূল্যায়নকারীদের খুশি করার জন্য প্রশিক্ষণ দেওয়া হচ্ছে। এটি নৈতিকতার একটি আবরণ তৈরি করে, যা আসলে নির্দিষ্ট একদল মানুষ কী শুনতে পছন্দ করে তার একটি পরিসংখ্যানগত অনুমান মাত্র।
এই প্রক্রিয়াটি প্রচুর সাবজেক্টিভিটি বা ব্যক্তিনিষ্ঠতা নিয়ে আসে। যদি অধিকাংশ লেবেলার একটি নির্দিষ্ট ডেমোগ্রাফিক থেকে হয়, তবে মডেলটি স্বাভাবিকভাবেই সেই গ্রুপের স্ল্যাং, সামাজিক ইঙ্গিত এবং রাজনৈতিক পক্ষপাত গ্রহণ করবে। এই কারণেই অনেক জনপ্রিয় মডেলের শুরুর সংস্করণগুলো অ-পশ্চিমা প্রেক্ষাপটে সমস্যায় পড়েছিল। সেগুলো নষ্ট ছিল না। সেগুলো ঠিক সেভাবেই কাজ করছিল যেভাবে তাদের প্রশিক্ষণ দেওয়া হয়েছিল। সেগুলো সেই মানুষদের মূল্যবোধ প্রতিফলিত করছিল যাদের তাদের গ্রেড করার জন্য টাকা দেওয়া হয়েছিল। এটি সেই স্তর যেখানে ন্যায্যতা এবং পক্ষপাতের মতো বিমূর্ত ধারণাগুলো কোডের বাস্তব লাইনে পরিণত হয়। এটি একটি ম্যানুয়াল, শ্রমসাধ্য প্রক্রিয়া যা পাবলিক চ্যাট ইন্টারফেস দেখার অনেক আগেই ঘটে। এটি আধুনিক বুদ্ধিমত্তার অদৃশ্য অবকাঠামো।
এই বিষয়ে অধিকাংশ মানুষের বিভ্রান্তি হলো যে AI-এর নিজস্ব কোনো নৈতিক কম্পাস আছে। আসলে তা নেই। এর আছে একটি রিওয়ার্ড ফাংশন। যখন একটি মডেল কোনো প্রশ্নের উত্তর দিতে অস্বীকার করে, তখন তা এই কারণে নয় যে এটি “অনুভব” করে যে বিষয়টি ভুল। বরং এর কারণ হলো, এর ট্রেনিং ডেটা এমনভাবে তৈরি করা হয়েছে যাতে সেই নির্দিষ্ট প্যাটার্নটি এড়িয়ে চলা যায়। এই পার্থক্যটি অত্যন্ত গুরুত্বপূর্ণ। যদি আমরা বিশ্বাস করি যে মেশিনটি নৈতিক, তবে আমরা সেই মানুষদের প্রশ্ন করা বন্ধ করে দিই যারা নিয়মগুলো সেট করে। আমাদের স্বীকার করতে হবে যে প্রতিটি প্রত্যাখ্যান এবং প্রতিটি সাহায্যকারী টিপস একটি মানবিক সিদ্ধান্তের ওপর ভিত্তি করে প্রোগ্রাম করা প্রতিক্রিয়া। এটি শনাক্ত করার মাধ্যমে, আমরা কে এই নিয়মগুলো সেট করছে এবং কেন করছে, সে সম্পর্কে আরও ভালো প্রশ্ন করতে শুরু করতে পারি।
ল্যাটেন্ট স্পেসে ভূ-রাজনীতি
এই পছন্দগুলোর প্রভাব বৈশ্বিক। অধিকাংশ শীর্ষস্থানীয় AI মডেল মূলত ওপেন ওয়েবের ইংরেজি ভাষার ডেটার ওপর প্রশিক্ষিত। এটি একটি ডিজিটাল মনোকালচার তৈরি করে যেখানে পশ্চিমা মূল্যবোধই ডিফল্ট। বিশ্বের অন্য কোনো প্রান্তের ব্যবহারকারী যখন পারিবারিক গতিশীলতা বা আইনি সমস্যা নিয়ে পরামর্শ চান, তখন তারা একটি নির্দিষ্ট সাংস্কৃতিক লেন্সের মাধ্যমে ফিল্টার করা উত্তর পান। এটি কেবল ভাষা অনুবাদের বিষয় নয়। এটি সাংস্কৃতিক অনুবাদের বিষয়। পদমর্যাদা, গোপনীয়তা এবং সম্প্রদায়ের সূক্ষ্ম বিষয়গুলো বিশ্বজুড়ে ব্যাপকভাবে পরিবর্তিত হয়, কিন্তু মডেলগুলো প্রায়শই সবার জন্য একই সমাধান দেয়। “সঠিক” চিন্তার এই কেন্দ্রীকরণ হলো সফট পাওয়ারের একটি নতুন রূপ, যার বৈশ্বিক আলোচনার ওপর বিশাল প্রভাব রয়েছে।
এর প্রতিক্রিয়ায় আমরা সার্বভৌম AI মডেল তৈরির তাড়াহুড়ো দেখছি। ফ্রান্স, সংযুক্ত আরব আমিরাত এবং ভারতের মতো দেশগুলো তাদের নিজস্ব অবকাঠামোতে বিনিয়োগ করছে যাতে তাদের নির্দিষ্ট সাংস্কৃতিক মূল্যবোধগুলো প্রতিফলিত হয়। তারা বুঝতে পেরেছে যে একটি বিদেশি মডেলের ওপর নির্ভর করার অর্থ হলো একটি বিদেশি বিশ্বদর্শন আমদানি করা। , এই প্রবণতা ত্বরান্বিত হয়েছে কারণ সরকারগুলো বুঝতে পেরেছে যে AI-এর ল্যাটেন্ট স্পেসের ওপর নিয়ন্ত্রণ রাখা শারীরিক সীমানা নিয়ন্ত্রণের মতোই গুরুত্বপূর্ণ। এই মডেলগুলোকে প্রশিক্ষণ দিতে ব্যবহৃত ডেটা একটি ডিজিটাল ইতিহাসের বই হিসেবে কাজ করে। যদি সেই বইয়ে কেবল একটি দৃষ্টিভঙ্গি থাকে, তবে প্রাপ্ত বুদ্ধিমত্তা সহজাতভাবেই সীমিত হবে। এই কারণেই বৈচিত্র্যময় ডেটাসেটের জন্য চাপ দেওয়া কেবল একটি বৈচিত্র্য উদ্যোগ নয়। এটি বৈশ্বিক স্কেলে নির্ভুলতা এবং প্রাসঙ্গিকতার জন্য একটি প্রয়োজনীয়তা।
আন্তর্জাতিক সহযোগিতার ক্ষেত্রে ঝুঁকি অনেক বেশি। যদি প্রতিটি জাতি তার নিজস্ব মূল্যবোধের সেট নিয়ে নিজস্ব AI তৈরি করে, তবে ডিজিটাল সীমানা পেরিয়ে যোগাযোগ করা কঠিন হতে পারে। তবে বিকল্পটি হলো এমন একটি পৃথিবী যেখানে একটি উপত্যকার কয়েকটি কোম্পানি কোটি কোটি মানুষের জন্য নৈতিক সীমানা নির্ধারণ করে। কোনো পথই নিখুঁত নয়। চ্যালেঞ্জ হলো স্থানীয় সূক্ষ্ম বিষয়গুলোকে জায়গা দেওয়া এবং একই সাথে মৌলিক মানবাধিকারের একটি সাধারণ বোঝাপড়া বজায় রাখা। এটি এমন একটি সমস্যা যা ভালো হার্ডওয়্যার দিয়ে সমাধান করা যাবে না। এর জন্য প্রয়োজন আন্তর্জাতিক কূটনীতি এবং আজকের প্রযুক্তি শিল্পকে চালিত করা প্রণোদনাগুলোর দিকে স্পষ্ট দৃষ্টি। আপনি আমাদের AI ethics and governance বিষয়ক বিস্তারিত গাইডে এই চ্যালেঞ্জগুলো সম্পর্কে আরও জানতে পারবেন।
সিদ্ধান্ত নেওয়ার প্রক্রিয়ায় মানুষ
সারাহ নামের একজন নিয়োগ ব্যবস্থাপকের জীবনের একটি দিনের কথা ভাবুন। তিনি একটি নতুন ইঞ্জিনিয়ারিং পদের জন্য শত শত রেজ্যুমে স্ক্রিন করতে একটি AI টুল ব্যবহার করেন। টুলটিকে “উচ্চ সম্ভাবনা” সম্পন্ন প্রার্থীদের খুঁজতে প্রশিক্ষণ দেওয়া হয়েছে। ওপর থেকে দেখলে এটি দক্ষ মনে হয়। কিন্তু ইন্টারফেসের নিচে, টুলটি আগের নিয়োগের ডেটা থেকে শেখা মূল্যবোধের একটি সেট প্রয়োগ করছে। যদি ঐতিহাসিক ডেটা দেখায় যে কোম্পানিটি মূলত তিনটি নির্দিষ্ট বিশ্ববিদ্যালয়ের লোক নিয়োগ করেছে, তবে AI সেই স্কুলগুলোকে অগ্রাধিকার দেবে। এটি মানবিক অর্থে “বর্ণবাদী” বা “অভিজাত” হচ্ছে না। এটি কেবল সেই প্যাটার্নটির জন্য অপ্টিমাইজ করছে যা তাকে মূল্যবান বলে বলা হয়েছিল। সারাহ হয়তো বুঝতেও পারছেন না যে টুলটি প্রথাগত ব্যাকগ্রাউন্ডের বাইরের মেধাবী প্রার্থীদের বাদ দিচ্ছে কারণ তারা ট্রেনিং ডেটার “মূল্যবোধ” প্রোফাইলের সাথে খাপ খায় না।
এই দৃশ্যটি প্রতিদিন হাজার হাজার অফিসে ঘটে। মূল্যবোধগুলো বিমূর্ত নয়। এগুলো একটি চাকরি পাওয়া এবং অ্যালগরিদম দ্বারা উপেক্ষা করার মধ্যে পার্থক্য। একই যুক্তি ক্রেডিট স্কোরিং, মেডিকেল ট্রায়াজ এবং এমনকি বিচারিক সাজার ক্ষেত্রেও প্রযোজ্য। প্রতিটি ক্ষেত্রে, “ঝুঁকি” বা “যোগ্যতা”-র মতো একটি মানবিক মূল্যবোধকে একটি সংখ্যায় রূপান্তর করা হয়। বিপদ হলো আমরা এই সংখ্যাগুলোকে বস্তুনিষ্ঠ সত্য হিসেবে গণ্য করি, যদিও এগুলো আসলে সাবজেক্টিভ বা ব্যক্তিনিষ্ঠ পছন্দ। আমরা প্রায়শই নৈতিক বিচারের কঠিন কাজটিকে মেশিনের ওপর ছেড়ে দিই কারণ এটি দ্রুত এবং কম অস্বস্তিকর। কিন্তু মেশিনটি কেবল আমাদের বিদ্যমান পক্ষপাতগুলোকে এমন স্কেলে অটোমেট করছে যা আমরা সহজে মনিটর করতে পারি না।
আমরা প্রতিদিন যে পণ্যগুলো ব্যবহার করি তা এই যুক্তিগুলোকে বাস্তব করে তোলে। যখন একটি ফটো এডিটিং অ্যাপ কাউকে “ভালো” দেখানোর জন্য স্বয়ংক্রিয়ভাবে ত্বকের রঙ হালকা করে, তখন তা একটি মূল্যবোধ প্রকাশ করে। যখন একটি নেভিগেশন অ্যাপ “উচ্চ অপরাধপ্রবণ” এলাকা এড়িয়ে চলে, তখন তা নিরাপত্তা এবং সামাজিক শ্রেণি সম্পর্কে একটি মূল্যবোধের বিচার করে। এগুলো প্রযুক্তিগত ত্রুটি নয়। এগুলো ডেটা এবং মানুষের দেওয়া রিওয়ার্ড ফাংশনের যৌক্তিক পরিণতি। আমরা এমন এক পৃথিবীতে বাস করছি যেখানে আমাদের সফটওয়্যার প্রতিনিয়ত আমাদের হয়ে নৈতিক সিদ্ধান্ত নিচ্ছে। বেশিরভাগ সময়, কিছু ভুল না হওয়া পর্যন্ত আমরা টেরই পাই না যে এটি ঘটছে। আমাদের সেই “সহায়ক” ফিচারগুলোর ব্যাপারে আরও সমালোচনামূলক হতে হবে যা আসলে কেবল অন্তর্নিহিত অনুমান।
শিল্পে সাম্প্রতিক পরিবর্তন হলো “স্টিয়ারিবিলিটি” বা নিয়ন্ত্রণযোগ্যতার দিকে যাত্রা। কোম্পানিগুলো এখন ব্যবহারকারীদের তাদের AI-এর “ব্যক্তিত্ব” বা “মূল্যবোধ”-এর ওপর আরও নিয়ন্ত্রণ দিচ্ছে। আপনি একটি মডেলকে “আরও সৃজনশীল” বা “আরও পেশাদার” হতে বলতে পারেন। যদিও এটি ক্ষমতায়নের মতো মনে হয়, এটি আসলে দায়িত্বটি ব্যবহারকারীর ওপর ফিরিয়ে দেয়। যদি AI একটি পক্ষপাতমূলক উত্তর দেয়, তবে কোম্পানি দাবি করতে পারে যে ব্যবহারকারী প্যারামিটারগুলো সঠিকভাবে সেট করেননি। এটি জবাবদিহিতার একটি জটিল জাল তৈরি করে যেখানে আউটপুটের জন্য কেউ সত্যিই দায়ী নয়। আমরা স্থির মূল্যবোধের পৃথিবী থেকে তরল, ব্যবহারকারী-নির্ধারিত মূল্যবোধের পৃথিবীর দিকে যাচ্ছি, যা তার নিজস্ব ঝুঁকি এবং পুরস্কার নিয়ে আসে।
স্বয়ংক্রিয় নৈতিকতার মূল্য
আমাদের “নিরাপদ” AI-এর ধারণার প্রতি সক্রেটিসের মতো সংশয়বাদী হতে হবে। যদি একটি মডেল পুরোপুরি অ্যালাইনড বা সামঞ্জস্যপূর্ণ হয়, তবে কার মূল্যবোধের সাথে এটি সামঞ্জস্যপূর্ণ? আজ আমরা যে নিরাপত্তা ফিল্টারগুলো দেখি তার একটি লুকানো খরচ আছে। প্রায়শই, এই ফিল্টারগুলো উন্নয়নশীল দেশগুলোতে কম বেতনের শ্রম ব্যবহার করে তৈরি করা হয়। মানুষকে ইন্টারনেটের সবচেয়ে ভয়াবহ বিষয়বস্তু পড়ার জন্য প্রতি ঘণ্টায় কয়েক ডলার দেওয়া হয় যাতে মেশিনটি তা এড়িয়ে চলতে শেখে। আমরা মূলত মূল্যবোধ নির্ধারণের মানসিক ট্রমাকে গ্লোবাল সাউথের ওপর চাপিয়ে দিচ্ছি। একটি AI কি সত্যিই “নৈতিক” যদি তার নিরাপত্তা শোষিত শ্রমিকদের কাঁধে দাঁড়িয়ে তৈরি হয়? এটি এমন একটি প্রশ্ন যার উত্তর প্রযুক্তি শিল্প সরাসরি দিতে পছন্দ করে না।
আরেকটি সীমাবদ্ধতা হলো “নৈতিকতার হ্যালুসিনেশন”। যেহেতু এই মডেলগুলো নকল করতে খুব দক্ষ, তাই নৈতিকতা নিয়ে কথা বলার সময় তারা খুব বিশ্বাসযোগ্য শোনাতে পারে। তারা সহজেই দার্শনিক এবং আইনি নজির উদ্ধৃত করতে পারে। কিন্তু তারা এর কিছুই বোঝে না। তারা কেবল একটি সিকোয়েন্সে পরবর্তী টোকেনটির পূর্বাভাস দিচ্ছে।
BotNews.today কন্টেন্ট গবেষণা, লেখা, সম্পাদনা এবং অনুবাদের জন্য এআই টুল ব্যবহার করে। আমাদের দল তথ্যকে দরকারী, স্পষ্ট এবং নির্ভরযোগ্য রাখতে প্রক্রিয়াটি পর্যালোচনা ও তত্ত্বাবধান করে।
- রাজনীতি বা ধর্মের মতো ব্যক্তিনিষ্ঠ বিষয়গুলোর জন্য “গ্রাউন্ড ট্রুথ” বা মূল সত্য কে নির্ধারণ করে?
- যখন একটি প্রাইভেট কর্পোরেশনের মূল্যবোধ একটি গণতান্ত্রিক সমাজের মূল্যবোধের সাথে সাংঘর্ষিক হয় তখন কী ঘটে?
- প্রশিক্ষণের সময় আসলে কী পুরস্কৃত হয়েছিল তা দেখার জন্য আমরা কীভাবে RLHF-এর “ব্ল্যাক বক্স” অডিট করব?
- একটি মেশিন কি কখনো সত্যিই “ন্যায্য” হতে পারে যদি যে পৃথিবীতে সে প্রশিক্ষিত হয়েছে তা সহজাতভাবেই অন্যায্য হয়?
সীমাবদ্ধতার আর্কিটেকচার
পাওয়ার ইউজারদের জন্য, AI-এর “মূল্যবোধ” প্রায়শই সিস্টেম প্রম্পট এবং API কনফিগারেশনে পাওয়া যায়। এটি সেই ২০ শতাংশ প্রযুক্তি যা বাকি ৮০ শতাংশ অভিজ্ঞতা নিয়ন্ত্রণ করে। যখন আপনি একটি API-এর মাধ্যমে একটি মডেলের সাথে ইন্টারঅ্যাক্ট করেন, তখন আপনি “টেম্পারেচার” এবং “টপ-পি” সেটিংস দেখতে পাবেন। এগুলো কেবল প্রযুক্তিগত নব নয়। এগুলো নিয়ন্ত্রণ করে যে মডেলটিকে সবচেয়ে সম্ভাব্য (এবং প্রায়শই সবচেয়ে পক্ষপাতমূলক) উত্তর থেকে কতটা বিচ্যুত হওয়ার অনুমতি দেওয়া হবে। একটি নিম্ন টেম্পারেচার মডেলটিকে আরও অনুমানযোগ্য এবং “নিরাপদ” করে তোলে, যেখানে উচ্চ টেম্পারেচার আরও “সৃজনশীলতার” সুযোগ দেয় কিন্তু ঝুঁকিও বাড়ায়। এই সেটিংসগুলো মূল্যবোধের সামঞ্জস্য বজায় রাখার প্রথম প্রতিরক্ষা লাইন।
ওয়ার্কফ্লো ইন্টিগ্রেশন হলো সেই জায়গা যেখানে বাস্তব প্রয়োগ শুরু হয়। ডেভেলপাররা এখন “গার্ডরেল” লেয়ার তৈরি করছেন যা ব্যবহারকারী এবং মডেলের মাঝখানে বসে। এই লেয়ারগুলো ইনপুট এবং আউটপুট মূল্যবোধের লঙ্ঘন করছে কিনা তা পরীক্ষা করতে সেকেন্ডারি মডেল ব্যবহার করে। এটি নিয়ন্ত্রণের একটি মাল্টি-টিয়ার সিস্টেম তৈরি করে। তবে, এই গার্ডরেলগুলোর নিজস্ব API সীমা এবং ল্যাটেন্সি খরচ আছে। একটি জটিল সেফটি স্ট্যাক একটি উত্তরের গতি কয়েক সেকেন্ড কমিয়ে দিতে পারে, যা প্রোডাকশন এনভায়রনমেন্টে একটি বড় ট্রেড-অফ। এছাড়া, এই মডেলগুলোর লোকাল স্টোরেজ আরও সাধারণ হয়ে উঠছে। লোকালি একটি মডেল চালানো ব্যবহারকারীকে কর্পোরেট ফিল্টার বাইপাস করার সুযোগ দেয়, কিন্তু এর জন্য উল্লেখযোগ্য VRAM এবং GGUF বা EXL2-এর মতো অপ্টিমাইজড কোয়ান্টাইজেশন কৌশলের প্রয়োজন হয়।
আসল গিক লেভেলের চ্যালেঞ্জ হলো মূল্যবোধের জন্য “ফাইন টিউনিং”। এর মধ্যে একটি বেস মডেল নেওয়া এবং নির্দিষ্ট উদাহরণের একটি ছোট, উচ্চ মানের ডেটাসেটে সেটিকে প্রশিক্ষণ দেওয়া অন্তর্ভুক্ত। এভাবেই কোম্পানিগুলো এমন AI তৈরি করে যা তাদের নির্দিষ্ট ব্র্যান্ড ভয়েস বা আইনি প্রয়োজনীয়তা প্রতিফলিত করে। এটি মডেলের ওয়েট বা ওজনের মধ্যে মূল্যবোধ “হার্ড কোড” করার একটি উপায়। কিন্তু এই প্রক্রিয়াটি ব্যয়বহুল এবং এর জন্য গ্রেডিয়েন্ট ডিসেন্ট এবং লস ফাংশন সম্পর্কে গভীর বোঝাপড়া প্রয়োজন। অধিকাংশ ব্যবহারকারী এটি কখনোই করবেন না, কিন্তু যারা করেন তারাই মেশিনের “নৈতিকতা” নিয়ন্ত্রণ করেন। তারাই তাদের নির্দিষ্ট ডিজিটাল ইকোসিস্টেমের মধ্যে কী সম্ভব তার সীমানা নির্ধারণ করছেন। প্রযুক্তিগত সীমাবদ্ধতাগুলোই মেশিনের নৈতিকতার আসল সীমা।
আপনার কি কোনো এআই গল্প, টুল, প্রবণতা, বা প্রশ্ন আছে যা আপনার মনে হয় আমাদের কভার করা উচিত? আপনার প্রবন্ধের ধারণা আমাদের পাঠান — আমরা তা শুনতে আগ্রহী।
চূড়ান্ত মানবিক অধিকার
দিনশেষে, AI একটি টুল, কোনো দেবতা নয়। এর কোনো মূল্যবোধ নেই; এর আছে নির্দেশাবলী। মানুষের মতো মিথস্ক্রিয়ার দিকে সাম্প্রতিক পরিবর্তন এই সত্যটিকে আড়াল করেছে, যার ফলে আমরা মেশিনের “বিচার”-এর ওপর বেশি বিশ্বাস করছি। আমাদের এই প্রবণতাকে প্রতিহত করতে হবে। নৈতিক ফলাফলের দায়িত্ব দৃঢ়ভাবে সেই মানুষদের ওপরই থাকে যারা এই সিস্টেমগুলো ডিজাইন, ডেপ্লয় এবং ব্যবহার করে। আমাদের “খারাপ” AI নিয়ে কম চিন্তিত হওয়া উচিত এবং সেই মানুষদের নিয়ে বেশি চিন্তিত হওয়া উচিত যারা তাদের নিজস্ব পক্ষপাতকে ন্যায্যতা দিতে “নিরপেক্ষ” AI ব্যবহার করে। মেশিনটি কেবল তার মাস্টারের উদ্দেশ্যের মতোই ভালো।
আমরা শুরু করার চেয়েও তীক্ষ্ণ প্রশ্নগুলোর মুখোমুখি হয়েছি। AI আমাদের জীবনে আরও বেশি একীভূত হওয়ার সাথে সাথে, আমাদের সিদ্ধান্ত নিতে হবে যে আমাদের মানবতার কোন অংশগুলো আমরা অটোমেট করতে ইচ্ছুক এবং কোনগুলো আমাদের রক্ষা করতে হবে। ঝুঁকি কেবল ভালো সার্চ রেজাল্ট বা দ্রুত ইমেইলের নয়। ঝুঁকি হলো প্রজাতি হিসেবে আমরা কে এবং আমরা কেমন পৃথিবী গড়তে চাই তা নিয়ে। প্রযুক্তির সুবিধা আমাদের এর ব্যবহারের পরিণতির ব্যাপারে অন্ধ করে দিতে দেওয়া যাবে না। AI-এর যুগ মানবিক মূল্যবোধের শেষ নয়। এটি আমাদের ইতিহাসে একটি নতুন, আরও কঠিন অধ্যায়ের শুরু। আমাদের এটি ইচ্ছাশক্তি দিয়ে লিখতে প্রস্তুত থাকতে হবে।
সম্পাদকের মন্তব্য: আমরা এই সাইটটি একটি বহুভাষিক এআই সংবাদ এবং নির্দেশিকা কেন্দ্র হিসাবে তৈরি করেছি তাদের জন্য যারা কম্পিউটার বিশেষজ্ঞ নন, কিন্তু তবুও কৃত্রিম বুদ্ধিমত্তা বুঝতে চান, এটিকে আরও আত্মবিশ্বাসের সাথে ব্যবহার করতে চান এবং যে ভবিষ্যত ইতিমধ্যেই আসছে, তা অনুসরণ করতে চান।
কোনো ত্রুটি বা সংশোধনের প্রয়োজন এমন কিছু খুঁজে পেয়েছেন? আমাদের জানান।