הפילוסופיה של ה-AI לאנשים ששונאים פילוסופיה
הבחירה הפרקטית
רוב האנשים מתייחסים לפילוסופיה של בינה מלאכותית כאל ויכוח על השאלה אם לרובוטים יש נשמה. זו טעות שגוזלת זמן ומטשטשת את הסיכונים האמיתיים. בעולם המקצועי, הפילוסופיה של הטכנולוגיה הזו היא למעשה דיון על אחריות משפטית, דיוק ועלות העבודה האנושית. מדובר בשאלה מי אחראי כשמודל עושה טעות שעולה לחברה מיליוני דולרים. מדובר בשאלה אם עובד יצירתי הוא הבעלים של הסגנון שהוא שכלל במשך עשורים. אנחנו עוברים מהעידן שבו תהינו אם מכונות יכולות לחשוב, לעידן שבו אנחנו מחליטים כמה אנחנו סומכים עליהן שיפעלו בשמנו. השינוי האחרון בתעשייה עבר מצ'אט-בוטים שמספרים בדיחות לסוכנים שיכולים להזמין טיסות ולכתוב קוד. השינוי הזה מאלץ אותנו להתמודד עם המכניקה של האמון במקום עם המסתורין של התודעה. אם אתם שונאים פילוסופיה, תסתכלו על זה כעל סדרה של משא ומתן על חוזים. אתם קובעים את התנאים עבור סוג חדש של עובד שלעולם לא ישן אבל לעיתים קרובות הוזה. המטרה היא לבנות מסגרת שבה היתרונות של המהירות לא עולים על הסיכונים של כשל מערכתי מוחלט.
המכניקה של לוגיקת המכונה
כדי להבין את המצב הנוכחי של התעשייה, אתם חייבים להתעלם ממונחי השיווק. מודל שפה גדול (LLM) הוא לא מוח. זו מפה סטטיסטית עצומה של שפה אנושית. כשאתם מקלידים פרומפט, המערכת לא חושבת על השאלה שלכם. היא מחשבת איזו מילה הכי סביר שתופיע אחרי הקודמת בהתבסס על טריליוני דוגמאות. זו הסיבה שהמערכות האלה כל כך טובות בשירה אבל כל כך גרועות במתמטיקה בסיסית. הן מבינות את הדפוסים של איך אנשים מדברים על מספרים, אבל הן לא מבינות את הלוגיקה של המספרים עצמם. ההבחנה הזו חיונית לכל מי שמשתמש בכלים האלה בסביבה עסקית. אם אתם מתייחסים לפלט כאל תיעוד עובדתי, אתם משתמשים בכלי בצורה לא נכונה. זה סינתיסייזר יצירתי, לא בסיס נתונים. הבלבול נובע לעיתים קרובות מכמה טוב המודלים האלה מחקים אמפתיה אנושית. הם יכולים להישמע אדיבים, מתוסכלים או מועילים, אבל אלה רק מראות לשוניות. הם משקפים את הטון של הנתונים עליהם הם אומנו.
השינוי שראינו לאחרונה כולל מעבר לעיגון המודלים האלה בנתונים מהעולם האמיתי. במקום לתת למודל לנחש תשובה, חברות מחברות אותם כעת לקבצים הפנימיים שלהן. זה מפחית את הסיכוי שהמודל ימציא דברים. זה גם משנה את גובה ההימור בשיחה. אנחנו כבר לא שואלים מה המודל יודע. אנחנו שואלים איך המודל ניגש למה שאנחנו יודעים. זהו מעבר מאמנות גנרטיבית לתועלת פונקציונלית. הפילוסופיה כאן פשוטה. זה ההבדל בין מספר סיפורים לפקיד תיוק. רוב המשתמשים רוצים את הפקיד, אבל הטכנולוגיה נבנתה להיות מספר הסיפורים. ליישב את שתי הזהויות האלה זה האתגר העיקרי עבור מפתחים כיום. אתם חייבים להחליט אם אתם רוצים כלי יצירתי או כלי מדויק, כי כרגע, קשה להשיג את שניהם ברמה המקסימלית בו-זמנית.
הימורים גלובליים ואינטרסים לאומיים
ההשפעה של הבחירות האלה לא מוגבלת למשרדים בודדים. ממשלות מתייחסות כעת לפיתוח המודלים האלה כאל עניין של ביטחון לאומי. בארצות הברית, צווים נשיאותיים מתמקדים בבטיחות ובאבטחה של המערכות החזקות ביותר. באירופה, ה-AI Act יצר מסגרת משפטית שמסווגת מערכות לפי סיכון. זה יוצר מצב שבו הפילוסופיה של מפתח בקליפורניה יכולה להשפיע על החוקיות של מוצר בברלין. אנחנו רואים עולם מפוצל שבו לאזורים שונים יש רעיונות שונים מאוד לגבי מה מותר למכונה לעשות. חלק מהמדינות רואות בטכנולוגיה דרך להגדיל את התפוקה הכלכלית בכל מחיר. אחרות רואות בה איום על המרקם החברתי ושוקי העבודה. זה יוצר מערכת חוקים נפרדת לכל שוק, מה שמקשה על חברות קטנות להתחרות בענקיות שיכולות להרשות לעצמן צוותים משפטיים גדולים.
שרשרת האספקה הגלובלית לטכנולוגיה הזו היא גם נקודת מתח. החומרה הנדרשת להפעלת המודלים האלה מרוכזת בידיים מעטות. זה יוצר סוג חדש של דינמיקת כוח בין המדינות שמתכננות את השבבים, המדינות שמייצרות אותם והמדינות שמספקות את הנתונים. עבור המשתמש הממוצע, זה אומר שהכלים שאתם מסתמכים עליהם עלולים להיות נתונים למלחמות סחר או בקרות ייצוא. הפילוסופיה של ה-AI קשורה כעת לפילוסופיה של ריבונות. אם מדינה מסתמכת על מודל זר עבור מערכת הבריאות או המערכת המשפטית שלה, היא מאבדת מידה של שליטה על התשתית שלה. זו הסיבה שאנחנו רואים דחיפה למודלים מקומיים ולעננים ריבוניים. המטרה היא להבטיח שהלוגיקה השולטת במדינה לא תהיה בבעלות תאגיד בצד השני של כדור הארץ. זהו הצד הפרקטי של הוויכוח שלעיתים קרובות הולך לאיבוד בשיחות על תרחישי מדע בדיוני.
בוקר עם בינה סינתטית
קחו לדוגמה יום טיפוסי של מנהלת שיווק בשם שרה. היא מתחילה את הבוקר שלה בבקשה מעוזרת לסכם שלוש תריסר אימיילים. העוזרת עושה זאת בשניות, אבל שרה צריכה לבדוק אם היא פספסה פרט קריטי על קיצוץ בתקציב. מאוחר יותר, היא משתמשת בכלי גנרטיבי כדי ליצור תמונות לקמפיין חדש. היא מבלה שעה בכוונון הפרומפט כי המכונה ממשיכה לתת לאנשים בתמונות שש אצבעות. אחר הצהריים, היא משתמשת בעוזר קידוד כדי לתקן באג באתר החברה, למרות שהיא לא יודעת לתכנת. היא בעצם מנצחת על תזמורת דיגיטלית. היא לא עושה את העבודה הידנית, אבל היא אחראית לביצוע הסופי. זו המציאות החדשה של העבודה. זה יותר על עריכה ואימות מאשר על יצירה מאפס. שרה פרודוקטיבית יותר, אבל היא גם עייפה יותר. העומס המנטלי של בדיקה מתמדת של מכונה עבור שגיאות שונה מהעומס של ביצוע העבודה בעצמה
BotNews.today משתמש בכלי AI כדי לחקור, לכתוב, לערוך ולתרגם תוכן. הצוות שלנו בודק ומפקח על התהליך כדי לשמור על המידע שימושי, ברור ואמין.
התמריצים עבור החברה של שרה השתנו גם הם. הם כבר לא שוכרים כותבים מתחילים. הם שוכרים עורך בכיר אחד שמשתמש בשלושה מודלים שונים כדי לייצר את אותה כמות תוכן. זה חוסך כסף בטווח הקצר, אבל זה יוצר בעיה לטווח ארוך. מאיפה יגיע הדור הבא של עורכים בכירים אם אף אחד לא עושה את עבודת המתחילים? זו תוצאה של הלוגיקה הנוכחית של יעילות. אנחנו מבצעים אופטימיזציה להווה תוך כדי שאנחנו עלולים לרוקן את העתיד. ההימור עבור יוצרים גבוה עוד יותר. מוזיקאים ומאיירים מגלים שהעבודה שלהם משמשת לאימון המודלים שמתחרים בהם כעת על משרות. זה לא רק שינוי בשוק. זה שינוי בערך שאנחנו מייחסים למאמץ אנושי. אנחנו חייבים לשאול אם אנחנו מעריכים את התוצאה יותר מאשר את התהליך, ומה קורה לתרבות שלנו כשהתהליך מוחבא בתוך קופסה שחורה.
- מנהיגי חברות חייבים להחליט אם הם מעריכים מהירות על פני מחשבה מקורית.
- עובדים חייבים ללמוד לבקר פלט של מכונה כמיומנות בסיסית.
- מחוקקים חייבים לאזן בין הצורך בחדשנות לבין הגנה על כוח העבודה.
- יוצרים חייבים למצוא דרכים להוכיח שהעבודה שלהם אנושית כדי לשמור על הערך שלה.
- מחנכים חייבים לחשוב מחדש על האופן שבו הם נותנים ציונים לתלמידים כשהתשובות נמצאות במרחק קליק.
העלויות הנסתרות של אוטומציה
אנחנו מדברים לעיתים קרובות על היתרונות של הטכנולוגיה הזו בלי להזכיר את החשבון. העלות הראשונה היא פרטיות. כדי להפוך את המודלים האלה לשימושיים יותר, אנחנו צריכים לתת להם יותר נתונים. מעודדים אותנו להזין את לוחות הזמנים האישיים שלנו, את ההערות הפרטיות שלנו ואת הסודות התאגידיים שלנו לתוך המערכות האלה כדי לקבל תוצאות טובות יותר. אבל לאן הנתונים האלה הולכים? רוב החברות טוענות שהן לא משתמשות בנתוני לקוחות כדי לאמן את המודלים שלהן, אבל ההיסטוריה של האינטרנט מציעה שמדיניות יכולה להשתנות. ברגע שהנתונים שלכם בתוך המערכת, כמעט בלתי אפשרי להוציא אותם. זהו סחר קבוע של פרטיות עבור נוחות. אנחנו רואים גם עלייה מאסיבית בצריכת האנרגיה. אימון מודל גדול אחד דורש מספיק חשמל כדי להפעיל אלפי בתים במשך שנה. ככל שנעבור למערכות מורכבות יותר, העלות הסביבתית רק תגדל. אנחנו חייבים לשאול אם היכולת לייצר תמונה מצחיקה של חתול שווה את טביעת הרגל הפחמנית שהיא מייצרת.
יש גם את עלות האמת. ככל שהופך לקל יותר לייצר טקסט ותמונות ריאליסטיים, הערך של ראיות יורד. אם אפשר לזייף הכל, אז אי אפשר להוכיח כלום. זה כבר משפיע על המערכות הפוליטיות ובתי המשפט שלנו. אנחנו נכנסים לתקופה שבה הנחת היסוד היא שמה שאנחנו רואים על מסך הוא שקר. זה יוצר רמה גבוהה של חיכוך חברתי. זה מקשה על הסכמה על עובדות בסיסיות. הפילוסופיה של ה-AI כאן עוסקת בשחיקה של מציאות משותפת. אם כולם מסתכלים על גרסה של העולם שעברה סינון ושינוי על ידי אלגוריתם, אנחנו מאבדים את היכולת לתקשר ביעילות מעבר לפערים האלה. אנחנו מחליפים בסיס חברתי יציב בחוויה אישית ומשעשעת יותר. זו בחירה שאנחנו עושים בכל פעם שאנחנו משתמשים בכלים האלה בלי לתהות על המקור או הכוונה שלהם.
יש לכם סיפור, כלי, טרנד או שאלה הקשורים ל-AI שלדעתכם כדאי לנו לסקר? שלחו לנו את רעיון המאמר שלכם — נשמח לשמוע.
מגבלות טכניות ומערכות מקומיות
עבור משתמשי כוח (power users), השיחה היא על יותר מאשר רק אתיקה. היא על הגבולות של החומרה והתוכנה. אחד המכשולים הגדולים הוא חלון ההקשר (context window). זו כמות המידע שמודל יכול להחזיק בזיכרון הפעיל שלו בכל פעם. בעוד שהחלונות האלה גדלים, הם עדיין מוגבלים. אם תזינו למודל ספר של אלף עמודים, הוא בסופו של דבר יתחיל לשכוח את ההתחלה עד שיגיע לסוף. זה מוביל לחוסר עקביות בפרויקטים ארוכים. יש גם את הנושא של מגבלות API וזמן תגובה (latency). אם העסק שלכם מסתמך על מודל של צד שלישי, אתם נתונים לחסדי זמינות השירות והתמחור שלהם. שינוי פתאומי בתנאי השימוש שלהם יכול לשבור את כל זרימת העבודה שלכם. זו הסיבה שמשתמשים מתקדמים רבים עוברים לאחסון מקומי והרצה מקומית. הם מריצים מודלים קטנים יותר על החומרה שלהם כדי לשמור על שליטה ומהירות.
אינטגרציה של זרימת עבודה היא האתגר הגדול הבא. זה לא מספיק שיהיה תיבת צ'אט באתר. הערך האמיתי מגיע מחיבור המודלים האלה לכלים קיימים כמו גיליונות אלקטרוניים, בסיסי נתונים ותוכנות לניהול פרויקטים. זה דורש הבנה עמוקה של איך לבנות נתונים כדי שהמודל יוכל להבין אותם. אנחנו רואים את עליית ה-RAG, או Retrieval-Augmented Generation. זו שיטה שבה המודל מחפש מידע ספציפי ממקור מהימן לפני שהוא עונה. זו דרך לגשר על הפער בין האופי הסטטיסטי של המודל לצרכים העובדתיים של המשתמש. עם זאת, זה מוסיף שכבה של מורכבות למערכת. אתם צריכים לנהל את מנוע החיפוש, בסיס הנתונים והמודל בו-זמנית. זה פתרון הדורש תחזוקה גבוהה שדורש סט מיומנויות ספציפי כדי לנהל ביעילות.
- Quantization מאפשר למודלים גדולים לרוץ על חומרה ברמה צרכנית על ידי הפחתת הדיוק של המשקלים.
- Fine tuning הופך לפחות פופולרי מכיוון ש-RAG מספק דיוק עובדתי טוב יותר בפחות מאמץ.
- Tokenization נשאר עלות נסתרת שיכולה להפוך שפות מסוימות ליקרות יותר לעיבוד מאחרות.
- הרצה מקומית היא הדרך היחידה להבטיח 100 אחוז פרטיות עבור נתונים תאגידיים רגישים.
- Model distillation יוצר גרסאות קטנות ומהירות יותר של מודלים ענקיים לשימוש בנייד.
הדרך הפרקטית קדימה
הפילוסופיה של ה-AI היא לא הסחת דעת מהעבודה. היא העבודה. בכל פעם שאתם בוחרים מודל, אתם עושים בחירה לגבי איזה סוג של לוגיקה אתם רוצים שתשלוט בחיים שלכם. אתם מחליטים אילו סיכונים מקובלים ואילו עלויות גבוהות מדי. הטכנולוגיה משתנה במהירות, אבל הצרכים האנושיים נשארים אותו הדבר. אנחנו רוצים כלים שעושים אותנו טובים יותר, לא כלים שמחליפים אותנו. אנחנו רוצים מערכות שקופות, לא מערכות שפועלות בחושך. הבלבול סביב הנושא הזה הוא לעיתים קרובות מכוון. קל יותר לחברות למכור קופסת קסמים מאשר למכור כלי סטטיסטי מורכב. על ידי הסרת המוץ והתמקדות בתמריצים, אתם יכולים לראות את הטכנולוגיה כפי שהיא באמת. זו יצירה עוצמתית, פגומה ואנושית מאוד. היא משקפת את הרעיונות הטובים ביותר שלנו ואת ההרגלים הגרועים ביותר שלנו. המטרה היא להשתמש בה בעיניים פקוחות, תוך הבנת הפשרות שאתם עושים בכל אינטראקציה. אתם יכולים למצוא עוד על המגמות האחרונות בלמידת מכונה כדי להישאר לפני השינויים האלה. לתובנות עמוקות יותר על האתיקה של המערכות האלה, משאבים כמו מכון סטנפורד לבינה מלאכותית ממוקדת אדם ו- MIT Technology Review מספקים נתונים מצוינים. אתם יכולים גם לעקוב אחר השינויים המשפטיים במדור הטכנולוגיה של הניו יורק טיימס.
הערת העורך: יצרנו אתר זה כמרכז חדשות ומדריכים רב-לשוני בנושא בינה מלאכותית עבור אנשים שאינם "גיקים" של מחשבים, אך עדיין רוצים להבין בינה מלאכותית, להשתמש בה בביטחון רב יותר, ולעקוב אחר העתיד שכבר מגיע.
מצאת שגיאה או משהו שצריך לתקן? ספר לנו.