چھوٹے ماڈل کی بہتری کیسے بڑے بدلاؤ لا رہی ہے
سب سے بڑے مصنوعی ذہانت (AI) ماڈل بنانے کی دوڑ اب ایک ایسی دیوار سے ٹکرا رہی ہے جہاں بہتری کے امکانات کم ہوتے جا رہے ہیں۔ اگرچہ خبروں کی سرخیوں میں اکثر ٹریلین پیرامیٹرز والے بڑے سسٹمز کا ذکر ہوتا ہے، لیکن اصل پیش رفت اب چھوٹے پیمانے پر ہو رہی ہے۔ ان ماڈلز کے ڈیٹا پروسیسنگ کے طریقوں میں معمولی بہتری سافٹ ویئر کی روزمرہ کی کارکردگی میں زبردست تبدیلیاں لا رہی ہے۔ ہم اس دور سے آگے بڑھ رہے ہیں جہاں صرف خام طاقت (raw scale) ہی واحد معیار تھی۔ آج، توجہ اس بات پر ہے کہ ہم کتنی ذہانت کو ایک چھوٹے سے فٹ پرنٹ میں سمو سکتے ہیں۔ یہ تبدیلی ٹیکنالوجی کو ہر کسی کے لیے زیادہ قابل رسائی اور تیز تر بناتی ہے۔ اب مقصد کوئی بڑا دماغ بنانا نہیں، بلکہ موجودہ دماغوں کو کہیں زیادہ کارکردگی کے ساتھ کام پر لگانا ہے۔ جب ایک ماڈل دس فیصد چھوٹا ہو کر بھی اپنی درستگی برقرار رکھتا ہے، تو یہ صرف سرور کے اخراجات ہی نہیں بچاتا، بلکہ ایسی ایپلی کیشنز کی ایک نئی قسم کو بھی ممکن بناتا ہے جو پہلے ہارڈویئر کی حدود کی وجہ سے ناممکن تھیں۔ یہ منتقلی اس وقت ٹیک سیکٹر کا سب سے اہم رجحان ہے کیونکہ یہ جدید کمپیوٹیشن کی طاقت کو بڑے ڈیٹا سینٹرز سے نکال کر آپ کی ہتھیلی تک پہنچا رہی ہے۔
بڑے سے بہتر کے دور کا اختتام
یہ سمجھنے کے لیے کہ یہ معمولی تبدیلیاں کیوں اہم ہیں، ہمیں یہ دیکھنا ہوگا کہ یہ دراصل کیا ہیں۔ زیادہ تر پیش رفت تین شعبوں سے آتی ہے: ڈیٹا کیوریٹیشن، کوانٹائزیشن، اور آرکیٹیکچرل ریفائنمنٹس۔ ایک طویل عرصے تک، محققین کا ماننا تھا کہ زیادہ ڈیٹا ہمیشہ بہتر ہوتا ہے۔ انہوں نے پوری انٹرنیٹ کو کھنگالا اور اسے مشینوں میں فیڈ کیا۔ اب ہم جانتے ہیں کہ اعلیٰ معیار کا ڈیٹا محض مقدار سے کہیں زیادہ قیمتی ہے۔ ڈیٹا سیٹس کو صاف کر کے اور غیر ضروری معلومات کو ہٹا کر، انجینئرز ایسے چھوٹے ماڈلز تیار کر سکتے ہیں جو اپنے بڑے پیشروؤں سے بہتر کارکردگی دکھاتے ہیں۔ اسے اکثر ٹیکسٹ بک کوالٹی ڈیٹا کہا جاتا ہے۔ ایک اور اہم عنصر کوانٹائزیشن ہے۔ یہ وہ عمل ہے جس میں ماڈل کی جانب سے حساب کتاب کے لیے استعمال ہونے والے نمبروں کی درستگی کو کم کیا جاتا ہے۔ ہائی پریسجن اعشاریوں کے بجائے، ایک ماڈل سادہ انٹیجرز کا استعمال کر سکتا ہے۔ یہ سننے میں ایسا لگتا ہے جیسے یہ نتائج کو خراب کر دے گا، لیکن ہوشیار ریاضی ماڈل کو تقریباً اتنا ہی ذہین رہنے دیتی ہے جبکہ اسے میموری کا ایک چھوٹا سا حصہ درکار ہوتا ہے۔ آپ ان تکنیکی تبدیلیوں کے بارے میں QLoRA پر حالیہ تحقیق اور ماڈل کمپریشن میں مزید پڑھ سکتے ہیں۔
آخر میں، اٹینشن میکانزم جیسی آرکیٹیکچرل تبدیلیاں ہیں جو جملے کے سب سے متعلقہ حصوں پر توجہ مرکوز کرتی ہیں۔ یہ کوئی بڑے اوور ہالز نہیں ہیں۔ یہ ریاضی میں کی گئی معمولی ایڈجسٹمنٹس ہیں جو سسٹم کو شور (noise) کو نظر انداز کرنے کی اجازت دیتی ہیں۔ جب آپ ان عوامل کو یکجا کرتے ہیں، تو آپ کو ایک ایسا ماڈل ملتا ہے جو خصوصی چپس سے بھرے کمرے کے بجائے ایک عام لیپ ٹاپ پر فٹ ہو جاتا ہے۔ لوگ اکثر سادہ کاموں کے لیے بڑے ماڈلز کی ضرورت کو بڑھا چڑھا کر پیش کرتے ہیں۔ وہ اس بات کو کم سمجھتے ہیں کہ چند ارب پیرامیٹرز میں کتنی منطق (logic) بھری جا سکتی ہے۔ ہم ایک ایسا رجحان دیکھ رہے ہیں جہاں زیادہ تر کنزیومر پروڈکٹس کے لیے ‘کافی اچھا ہونا’ معیار بن رہا ہے۔ یہ ڈویلپرز کو اجازت دیتا ہے کہ وہ کلاؤڈ کے بھاری اخراجات کو پورا کرنے کے لیے سبسکرپشن فیس لیے بغیر ایپس میں اسمارٹ فیچرز شامل کریں۔ یہ سافٹ ویئر کی تعمیر اور تقسیم کے طریقے میں ایک بنیادی تبدیلی ہے۔
کلاؤڈ پاور سے زیادہ مقامی ذہانت کیوں اہم ہے
ان چھوٹی بہتریوں کے عالمی اثرات کو بیان کرنا مشکل ہے۔ دنیا کے زیادہ تر لوگوں کے پاس بڑے کلاؤڈ بیسڈ ماڈلز کے ساتھ تعامل کرنے کے لیے درکار تیز رفتار انٹرنیٹ تک رسائی نہیں ہے۔ جب ذہانت کے لیے ورجینیا یا ڈبلن میں کسی سرور سے مستقل کنکشن کی ضرورت ہوتی ہے، تو یہ امیروں کے لیے ایک عیش و آرام کی چیز بنی رہتی ہے۔ چھوٹے ماڈل کی بہتری اسے تبدیل کرتی ہے، جس سے سافٹ ویئر کو درمیانے درجے کے ہارڈویئر پر مقامی طور پر چلانے کی اجازت ملتی ہے۔ اس کا مطلب ہے کہ دیہی علاقے کا طالب علم یا ابھرتی ہوئی مارکیٹ کا ورکر بھی ٹیک ہب میں موجود شخص جیسی مدد حاصل کر سکتا ہے۔ یہ میدان کو اس طرح ہموار کرتا ہے جیسا کہ خام اسکیلنگ کبھی نہیں کر سکتی تھی۔ ذہانت کی قیمت صفر کی طرف گر رہی ہے۔ یہ پرائیویسی اور سیکیورٹی کے لیے خاص طور پر اہم ہے۔ جب ڈیٹا کو ڈیوائس سے باہر جانے کی ضرورت نہیں ہوتی، تو بریچ کا خطرہ نمایاں طور پر کم ہو جاتا ہے۔ حکومتیں اور ہیلتھ کیئر فراہم کرنے والے ان موثر ماڈلز کو شہریوں کے ڈیٹا سے سمجھوتہ کیے بغیر خدمات فراہم کرنے کے ایک طریقہ کے طور پر دیکھ رہے ہیں۔
یہ تبدیلی ماحول پر بھی اثر انداز ہوتی ہے۔ بڑے پیمانے پر ٹریننگ رنز کولنگ کے لیے بجلی اور پانی کی بھاری مقدار استعمال کرتے ہیں۔ کارکردگی پر توجہ مرکوز کر کے، انڈسٹری بہتر مصنوعات فراہم کرتے ہوئے اپنے کاربن فٹ پرنٹ کو کم کر سکتی ہے۔ Nature جیسے سائنسی جریدوں نے اجاگر کیا ہے کہ کس طرح موثر AI انڈسٹری کے ماحولیاتی بوجھ کو کم کر سکتا ہے۔ یہاں کچھ طریقے ہیں جن سے یہ عالمی تبدیلی ظاہر ہو رہی ہے:
- مقامی ترجمہ کی خدمات جو بغیر کسی انٹرنیٹ کنکشن کے کام کرتی ہیں۔
- طبی تشخیصی ٹولز جو دور دراز کے کلینکوں میں پورٹیبل ٹیبلٹس پر چلتے ہیں۔
- تعلیمی سافٹ ویئر جو کم قیمت ہارڈویئر پر طالب علم کی ضروریات کے مطابق ڈھل جاتا ہے۔
- ویڈیو کالز کے لیے ریئل ٹائم پرائیویسی فلٹرنگ جو مکمل طور پر ڈیوائس پر ہوتی ہے۔
- سستے ڈرونز اور مقامی پروسیسنگ کا استعمال کرتے ہوئے کسانوں کے لیے خودکار فصل کی نگرانی۔
یہ صرف چیزوں کو تیز بنانے کے بارے میں نہیں ہے۔ یہ انہیں آفاقی بنانے کے بارے میں ہے۔ جب ہارڈویئر کی ضروریات کم ہوتی ہیں، تو ممکنہ صارف کی بنیاد اربوں لوگوں تک بڑھ جاتی ہے۔ یہ رجحان AI ڈویلپمنٹ کے تازہ ترین رجحانات سے گہرا تعلق رکھتا ہے جو خام طاقت پر رسائی کو ترجیح دیتے ہیں۔
آف لائن اسسٹنٹ کے ساتھ ایک منگل
مارکس نامی فیلڈ انجینئر کی زندگی کے ایک دن پر غور کریں۔ وہ آف شور ونڈ ٹربائنز پر کام کرتا ہے جہاں انٹرنیٹ تک رسائی کا نام و نشان نہیں ہے۔ ماضی میں، اگر مارکس کو کوئی ایسی مکینیکل خرابی ملتی جسے وہ نہیں پہچانتا تھا، تو اسے تصاویر لینی پڑتی تھیں، ساحل پر واپس آنے کا انتظار کرنا پڑتا تھا، اور کسی مینوئل یا سینئر ساتھی سے مشورہ کرنا پڑتا تھا۔ اس سے مرمت میں کئی دن لگ سکتے تھے۔ اب، وہ ایک انتہائی آپٹمائزڈ لوکل ماڈل کے ساتھ ایک مضبوط ٹیبلٹ رکھتا ہے۔ وہ کیمرے کو ٹربائن کے پرزوں کی طرف کرتا ہے اور ماڈل ریئل ٹائم میں مسئلے کی نشاندہی کرتا ہے۔ یہ مشین کے مخصوص سیریل نمبر کی بنیاد پر مرمت کے لیے مرحلہ وار گائیڈ فراہم کرتا ہے۔ مارکس جو ماڈل استعمال کرتا ہے وہ ٹریلین پیرامیٹر کا دیو نہیں ہے۔ یہ ایک چھوٹا، خصوصی ورژن ہے جسے مکینیکل انجینئرنگ کو سمجھنے کے لیے بہتر بنایا گیا ہے۔ یہ ایک ٹھوس مثال ہے کہ کس طرح ماڈل کی کارکردگی میں ایک چھوٹی سی بہتری پیداوری میں زبردست تبدیلی لاتی ہے۔
اس دن کے بعد، مارکس اسی ڈیوائس کا استعمال کرتے ہوئے غیر ملکی سپلائر کی تکنیکی دستاویز کا ترجمہ کرتا ہے۔ ترجمہ تقریباً مکمل ہے کیونکہ ماڈل کو انجینئرنگ کے متن کے ایک چھوٹے لیکن اعلیٰ معیار کے سیٹ پر ٹرین کیا گیا تھا۔ اسے کبھی کلاؤڈ پر ایک بھی فائل اپ لوڈ کرنے کی ضرورت نہیں پڑی۔ یہ اعتبار ہی ہے جو ٹیکنالوجی کو حقیقی دنیا میں مفید بناتا ہے۔ بہت سے لوگ یہ فرض کرتے ہیں کہ مددگار ہونے کے لیے AI کا جنرلسٹ ہونا ضروری ہے، لیکن مارکس ثابت کرتا ہے کہ خصوصی، چھوٹے سسٹمز اکثر پیشہ ورانہ کاموں کے لیے بہتر ہوتے ہیں۔ ماڈل کی چھوٹی نوعیت دراصل ایک فیچر ہے، بگ نہیں۔ اس کا مطلب ہے کہ سسٹم تیز، زیادہ نجی، اور چلانے میں سستا ہے۔ مارکس کو پچھلے ہفتے اپنی تازہ ترین اپ ڈیٹ ملی، اور رفتار میں فرق فوری طور پر نمایاں تھا۔
BotNews.today مواد کی تحقیق، تحریر، تدوین اور ترجمہ کے لیے AI ٹولز کا استعمال کرتا ہے۔ ہماری ٹیم معلومات کو مفید، واضح اور قابل اعتماد رکھنے کے لیے اس عمل کا جائزہ لیتی ہے اور اس کی نگرانی کرتی ہے۔
یہاں تضاد یہ ہے کہ اگرچہ ماڈلز چھوٹے ہو رہے ہیں، لیکن ان کا کام بڑا ہوتا جا رہا ہے۔ ہم بوٹ کے ساتھ چیٹنگ سے ہٹ کر ایک ٹول کو ورک فلو میں ضم کرنے کی طرف بڑھ رہے ہیں۔ لوگ ماڈل کی شاعری لکھنے کی صلاحیت کی اہمیت کو بڑھا چڑھا کر پیش کرتے ہیں۔ وہ اس ماڈل کی قدر کو کم سمجھتے ہیں جو دھندلے انوائس سے ڈیٹا کو مکمل طور پر نکال سکتا ہے یا اسٹیل بیم میں باریک دراڑ کی نشاندہی کر سکتا ہے۔ یہ وہ کام ہیں جو عالمی معیشت کو چلاتے ہیں۔ جیسے جیسے یہ چھوٹی بہتری جاری رہے گی، اسمارٹ سافٹ ویئر اور عام سافٹ ویئر کے درمیان لکیر ختم ہو جائے گی۔ سب کچھ بس بہتر کام کرے گا۔ یہ موجودہ ٹیک ماحول کی حقیقت ہے۔
کارکردگی کے تجارتی معاہدے کے بارے میں سخت سوالات
تاہم، ہمیں اس رجحان پر کچھ سقراطی شکوک و شبہات کا اطلاق کرنا چاہیے۔ اگر ہم چھوٹے، زیادہ آپٹمائزڈ ماڈلز کی طرف بڑھ رہے ہیں، تو ہم پیچھے کیا چھوڑ رہے ہیں؟ ایک مشکل سوال یہ ہے کہ کیا کارکردگی پر توجہ مرکوز کرنے سے ہم ایک ‘کافی اچھے’ پلیٹو (plateau) تک پہنچ رہے ہیں؟ اگر کسی ماڈل کو تیز ہونے کے لیے آپٹمائز کیا گیا ہے، تو کیا وہ ان ایج کیسز کو سنبھالنے کی صلاحیت کھو دیتا ہے جو ایک بڑا ماڈل پکڑ سکتا ہے؟ ہمیں یہ پوچھنا چاہیے کہ کیا ماڈلز کو چھوٹا کرنے کی جلدی ایک نئی قسم کا تعصب پیدا کر رہی ہے؟ اگر ہم ان سسٹمز کو ٹرین کرنے کے لیے صرف اعلیٰ معیار کا ڈیٹا استعمال کرتے ہیں، تو معیار کی تعریف کون کرتا ہے؟ ہم نادانستہ طور پر پسماندہ گروہوں کی آوازوں اور نقطہ نظر کو فلٹر کر سکتے ہیں کیونکہ ان کا ڈیٹا ٹیکسٹ بک کے معیار پر پورا نہیں اترتا۔
کیا آپ کے پاس کوئی AI کہانی، ٹول، رجحان، یا سوال ہے جس کے بارے میں آپ کو لگتا ہے کہ ہمیں اسے شامل کرنا چاہیے؟ ہمیں اپنے مضمون کا خیال بھیجیں — ہمیں اسے سن کر خوشی ہوگی۔
چھپے ہوئے اخراجات کا سوال بھی ہے۔ اگرچہ ایک چھوٹا ماڈل چلانا سستا ہے، لیکن ایک بڑے ماڈل کو چھوٹا کرنے کے لیے درکار تحقیق اور ترقی ناقابل یقین حد تک مہنگی ہے۔ کیا ہم صرف توانائی کی کھپت کو انفرنس فیز سے ٹریننگ اور آپٹیمائزیشن فیز میں منتقل کر رہے ہیں؟ نیز، جیسے جیسے یہ ماڈلز ذاتی ڈیوائسز پر عام ہوتے جا رہے ہیں، ہماری پرائیویسی کا کیا ہوگا؟ یہاں تک کہ اگر ماڈل مقامی طور پر چلتا ہے، تب بھی ہم اسے کیسے استعمال کرتے ہیں اس کے بارے میں میٹا ڈیٹا اب بھی اکٹھا کیا جا سکتا ہے۔ ہمیں یہ پوچھنے کی ضرورت ہے کہ کیا مقامی ذہانت کی سہولت زیادہ جارحانہ ٹریکنگ کے امکان کے قابل ہے؟ اگر آپ کے فون پر ہر ایپ کا اپنا چھوٹا دماغ ہے، تو کون نگرانی کر رہا ہے کہ وہ دماغ آپ کے بارے میں کیا سیکھ رہے ہیں؟ ہمیں ہارڈویئر کی لمبی عمر پر بھی غور کرنا ہوگا۔ اگر سافٹ ویئر زیادہ موثر ہوتا رہتا ہے، تو کیا کمپنیاں اب بھی ہمیں اپنی ڈیوائسز کو ہر سال اپ گریڈ کرنے پر مجبور کریں گی؟ یا کیا یہ ایک پائیدار دور کی طرف لے جائے گا جہاں پانچ سال پرانا فون بھی جدید ترین ٹولز چلانے کے قابل ہوگا؟ یہ وہ تضادات ہیں جن کا سامنا ہمیں ٹیکنالوجی کے ارتقاء کے ساتھ کرنا ہوگا۔
کمپریشن کے پیچھے کی انجینئرنگ
پاور یوزرز اور ڈویلپرز کے لیے، چھوٹے ماڈلز کی طرف منتقلی تکنیکی تفصیلات کا معاملہ ہے۔ سب سے اہم میٹرک اب صرف پیرامیٹر کی گنتی نہیں ہے۔ یہ فی پیرامیٹر بٹس ہے۔ ہم 16 بٹ فلوٹنگ پوائنٹ ویٹس سے 8 بٹ اور یہاں تک کہ 4 بٹ کوانٹائزیشن کی طرف بڑھ رہے ہیں۔ یہ ایک ایسے ماڈل کو، جسے عام طور پر 40 گیگا بائٹس VRAM کی ضرورت ہوتی ہے، 10 گیگا بائٹس سے کم میں فٹ ہونے کی اجازت دیتا ہے۔ یہ مقامی اسٹوریج اور GPU کی ضروریات کے لیے ایک بہت بڑی تبدیلی ہے۔ ڈویلپرز اب LoRA، یا Low-Rank Adaptation کو دیکھ رہے ہیں، تاکہ پورے سسٹم کو دوبارہ ٹرین کیے بغیر مخصوص کاموں پر ان ماڈلز کو فائن ٹیون کیا جا سکے۔ یہ ورک فلو انٹیگریشن کو بہت آسان بناتا ہے۔ آپ ان طریقوں پر تکنیکی دستاویزات MIT Technology Review پر تلاش کر سکتے ہیں۔
ایپلی کیشنز بناتے وقت، آپ کو درج ذیل تکنیکی حدود پر غور کرنا ہوگا:
- میموری بینڈوڈتھ اکثر مقامی انفرنس کے لیے خام کمپیوٹ پاور سے زیادہ بڑی رکاوٹ ہوتی ہے۔
- کلاؤڈ ماڈلز کے لیے API کی حدود کم متعلقہ ہوتی جا رہی ہیں کیونکہ مقامی ہوسٹنگ پروڈکشن کے لیے قابل عمل ہو رہی ہے۔
- کانٹیکسٹ ونڈو مینجمنٹ اب بھی چھوٹے ماڈلز کے لیے ایک چیلنج ہے کیونکہ وہ طویل بات چیت کا ٹریک کھونے لگتے ہیں۔
- FP8 اور INT4 پریسجن کے درمیان انتخاب تخلیقی کاموں میں ہیلوسینیشن کی شرح کو نمایاں طور پر متاثر کر سکتا ہے۔
- مقامی اسٹوریج کی ضروریات کم ہو رہی ہیں لیکن تیز ماڈل لوڈنگ کے لیے ہائی اسپیڈ NVMe ڈرائیوز کی ضرورت برقرار ہے۔
ہم قیاسی ڈی کوڈنگ (speculative decoding) کا عروج بھی دیکھ رہے ہیں، جہاں ایک چھوٹا ماڈل اگلے چند ٹوکنز کی پیش گوئی کرتا ہے اور ایک بڑا ماڈل ان کی تصدیق کرتا ہے۔ یہ ہائبرڈ نقطہ نظر ایک چھوٹے ماڈل کی رفتار اور ایک دیو کی درستگی پیش کرتا ہے۔ یہ ماڈل کے سائز کے روایتی تجارتی معاہدوں کو نظر انداز کرنے کا ایک ہوشیار طریقہ ہے۔ اس فیلڈ میں آگے رہنے کے خواہشمند کسی بھی شخص کے لیے، ان کمپریشن تکنیکوں کو سمجھنا شروع سے ماڈل بنانے کے طریقے سے زیادہ اہم ہے۔ مستقبل ان آپٹمائزرز کا ہے جو کم میں زیادہ کر سکتے ہیں۔ توجہ خام طاقت سے ہوشیار انجینئرنگ کی طرف منتقل ہو رہی ہے۔
بہترین کارکردگی کا متحرک ہدف
سب سے اہم بات یہ ہے کہ ‘بڑا ہمیشہ بہتر ہوتا ہے’ کا دور ختم ہو رہا ہے۔ سب سے اہم پیش رفت اب مزید لیئرز یا مزید ڈیٹا شامل کرنے کے بارے میں نہیں ہے۔ وہ بہتری، کارکردگی، اور رسائی کے بارے میں ہیں۔ ہم ایک ایسی تبدیلی دیکھ رہے ہیں جو جدید کمپیوٹیشن کو کیلکولیٹر کی طرح عام بنا دے گی۔ یہ پیش رفت صرف ایک تکنیکی کامیابی نہیں ہے۔ یہ ایک سماجی کامیابی ہے۔ یہ سب سے جدید تحقیق کی طاقت کو ہر کسی تک پہنچاتی ہے، قطع نظر ان کے ہارڈویئر یا انٹرنیٹ کنکشن کے۔ یہ آپٹیمائزیشن کے پچھلے دروازے سے ذہانت کا جمہوری بنانا ہے۔
ایڈیٹر کا نوٹ: ہم نے یہ سائٹ ایک کثیر لسانی AI خبروں اور گائیڈز کے مرکز کے طور پر ان لوگوں کے لیے بنائی ہے جو کمپیوٹر گیکس نہیں ہیں، لیکن پھر بھی مصنوعی ذہانت کو سمجھنا چاہتے ہیں، اسے زیادہ اعتماد کے ساتھ استعمال کرنا چاہتے ہیں، اور اس مستقبل کی پیروی کرنا چاہتے ہیں جو پہلے ہی آ رہا ہے۔
کوئی غلطی یا اصلاح طلب چیز ملی ہے؟ ہمیں بتائیں۔جیسے جیسے ہم اگلے سالوں کی طرف دیکھتے ہیں، کھلا سوال برقرار ہے: کیا ہم ذہانت کو چھوٹا کرنے کے طریقے تلاش کرتے رہیں گے، یا ہم بالآخر کسی ایسی جسمانی حد تک پہنچ جائیں گے جو ہمیں واپس کلاؤڈ کی طرف دھکیل دے گی؟ فی الحال، رجحان واضح ہے۔ چھوٹا ہی نیا بڑا ہے۔ کل ہم جو سسٹمز استعمال کریں گے ان کی تعریف اس سے نہیں ہوگی کہ وہ کتنا جانتے ہیں، بلکہ اس سے ہوگی کہ وہ جو کچھ ان کے پاس ہے اسے کتنی اچھی طرح استعمال کرتے ہیں۔