השאלות האתיות הגדולות ביותר ש-AI עדיין לא יכול לברוח מהן
עמק הסיליקון הבטיח שבינה מלאכותית תפתור את הבעיות הקשות ביותר של האנושות. במקום זאת, הטכנולוגיה יצרה מערכת חדשה של חיכוכים ששום כמות של קוד לא יכולה לתקן. אנחנו עוברים את שלב הפליאה ונכנסים לתקופה של אחריות קשה. הבעיה המרכזית אינה מרד מכונות עתידני, אלא המציאות הנוכחית של האופן שבו המערכות הללו נבנות ומוטמעות. כל Large Language Model מסתמך על בסיס של עבודה אנושית ונתונים שנאספו מהרשת. זה יוצר קונפליקט בסיסי בין החברות שבונות את הכלים לבין האנשים שהעבודה שלהם מניעה אותם. רגולטורים באירופה ובארצות הברית שואלים כעת מי אחראי כאשר מערכת מבצעת טעות שהורסת חיים. התשובה נותרה לא ברורה מכיוון שהמסגרות המשפטיות לא נבנו עבור תוכנה שפועלת ברמה כזו של אוטונומיה. אנחנו רואים שינוי במיקוד ממה שהטכנולוגיה יכולה לעשות למה שצריך להתיר לה לעשות בחיים הציבוריים.
החיכוך של קבלת החלטות אוטומטית
בבסיסה, בינה מלאכותית מודרנית היא מנוע חיזוי. היא לא מבינה אמת או אתיקה. היא מחשבת את ההסתברות למילה או לפיקסל הבאים בהתבסס על מאגרי נתונים עצומים. חוסר ההבנה המובנה הזה יוצר פער בין הפלט של המכונה לבין הדרישות של הצדק האנושי. כאשר בנק משתמש ב-algorithm כדי לקבוע כושר אשראי, המערכת עשויה לזהות דפוסים שמתואמים עם גזע או מיקוד. זה לא בגלל שהמכונה בעלת תודעה, אלא בגלל שהנתונים ההיסטוריים שעליהם היא אומנה מכילים את ההטיות הללו. חברות לרוב מסתירות את התהליכים הללו מאחורי סודות מסחריים, מה שהופך את זה לבלתי אפשרי עבור מועמד שנדחה לדעת מדוע הוא סורב. חוסר השקיפות הזה הוא המאפיין המגדיר של עידן האוטומציה הנוכחי. זה מכונה לעיתים קרובות בעיית ה-black box.
המציאות הטכנית היא שהמודלים הללו מאומנים על האינטרנט הפתוח, שהוא מאגר של ידע אנושי וגם של דעות קדומות אנושיות. מפתחים מנסים לסנן את הנתונים הללו, אך קנה המידה הופך אצירה מושלמת לבלתי אפשרית. כשאנחנו מדברים על אתיקה של AI, אנחנו באמת מדברים על איך אנחנו מטפלים בשגיאות שהמערכות הללו מייצרות באופן בלתי נמנע. יש מתח גובר בין מהירות ההטמעה לבין הצורך בבטיחות. חברות רבות מרגישות לחץ להוציא מוצרים לפני שהם מובנים במלואם כדי להימנע מאובדן נתח שוק. זה יוצר מצב שבו הציבור הופך לקבוצת נבדקים לא רצונית עבור תוכנה לא מוכחת. המערכת המשפטית נאבקת לעמוד בקצב השינויים בעוד בתי משפט מתווכחים האם ניתן להטיל אחריות על מפתח תוכנה בגין ה-hallucinations של היצירה שלו.
הפער הדיגיטלי הגלובלי החדש
ההשפעה של המערכות הללו אינה מופצת באופן שווה ברחבי העולם. בעוד שהמטה של חברות ה-AI הגדולות ממוקם בכמה מדינות עשירות, ההשלכות של עבודתן מורגשות בכל מקום. צורה חדשה של ניצול עבודה צצה ב-Global South. אלפי עובדים במדינות כמו קניה והפיליפינים מקבלים שכר נמוך כדי לתייג נתונים ולסנן תוכן טראומטי. עובדים אלו הם רשת הביטחון הבלתי נראית שמונעת מ-AI להוציא חומר רעיל, אך הם לעיתים רחוקות נהנים מהרווחים של התעשייה. זה יוצר חוסר איזון בכוח שבו מדינות עשירות שולטות בכלים בעוד מדינות מתפתחות מספקות את כוח העבודה והנתונים הגולמיים הדרושים כדי לקיים אותם.
דומיננטיות תרבותית היא דאגה משמעותית נוספת עבור הקהילה הבינלאומית. רוב המודלים הגדולים מאומנים בעיקר על נתונים בשפה האנגלית ועל נורמות תרבותיות מערביות. המשמעות היא שהמערכות לרוב נכשלות בהבנת הקשר מקומי או שפות עם פחות משאבים דיגיטליים. כאשר הכלים הללו מיוצאים, הם מסתכנים בדריסת ידע מקומי עם פרספקטיבה מערבית הומוגנית. זה לא רק פגם טכני אלא איום על גיוון תרבותי. ממשלות מתחילות להבין שהסתמכות על תשתית AI זרה יוצרת סוג חדש של תלות. אם למדינה אין יכולות AI ריבוניות משלה, עליה לציית לכללים ולערכים של החברות שמספקות את השירות. הקהילה הגלובלית מתמודדת כעת עם כמה סוגיות קריטיות:
- הריכוזיות של כוח מחשוב בידי קומץ תאגידים פרטיים.
- העלות הסביבתית של אימון מודלים מסיביים באזורים עם מחסור במים.
- שחיקת שפות מקומיות במרחבים דיגיטליים הנשלטים על ידי מודלים ממוקדי-אנגלית.
- היעדר הסכמים בינלאומיים על השימוש במערכות אוטונומיות בלוחמה.
- הפוטנציאל של מידע כוזב אוטומטי לערער בחירות דמוקרטיות.
לחיות עם ה-Algorithm
חשבו על יום בחייה של שרה, מנהלת בדרג ביניים בחברת לוגיסטיקה. הבוקר שלה מתחיל בסיכום שנוצר על ידי AI של האימיילים שלה. המערכת מדגישה את מה שהיא חושבת שהן המשימות הדחופות ביותר, אך היא מפספסת תלונה עדינה מלקוח ותיק מכיוון שכלי ה-sentiment analysis לא זיהה את הציניות. מאוחר יותר, היא משתמשת בכלי גנרטיבי כדי לנסח הערכת ביצועים לעובד. התוכנה מציעה דירוג נמוך יותר בהתבסס על מדדי פרודוקטיביות שלא לוקחים בחשבון את הזמן שהעובד השקיע בחניכת עובדים חדשים. שרה חייבת להחליט אם לסמוך על שיקול דעתה שלה או על ההמלצה מבוססת הנתונים של המכונה. אם היא תתעלם מה-AI והעובד ייכשל מאוחר יותר, היא עלולה להיות מואשמת בכך שלא עקבה אחרי הנתונים. זהו הלחץ השקט של ניהול אלגוריתמי.
אחר הצהריים, שרה מגישה בקשה לפוליסת ביטוח חדשה. חברת הביטוח משתמשת במערכת אוטומטית כדי לסרוק את הרשתות החברתיות ורשומות הבריאות שלה. המערכת מסמנת אותה כסיכון גבוה כי היא הצטרפה לאחרונה לקבוצת טיולים, שה-algorithm משייך לפוטנציאל לפציעה. אין אדם לדבר איתו ואין דרך להסביר שהיא מטיילת מנוסה עם בריאות מצוינת. הפרמיה שלה עולה באופן מיידי. זוהי השלכה מהעולם האמיתי של מערכת שמתעדפת יעילות על פני ניואנס אישי. בערב, שרה גולשת באתר חדשות שבו חצי מהכתבות נכתבו על ידי בוטים. היא מוצאת שקשה יותר ויותר להבחין מהי עובדה מדווחת ומהו סיכום מסונתז שנועד לגרום לה להמשיך להקליק. החשיפה המתמדת הזו לתוכן אוטומטי משנה את האופן שבו היא תופסת את המציאות.
BotNews.today משתמש בכלי AI כדי לחקור, לכתוב, לערוך ולתרגם תוכן. הצוות שלנו בודק ומפקח על התהליך כדי לשמור על המידע שימושי, ברור ואמין.
המחיר של יעילות
עלינו לשאול שאלות קשות על העלויות הנסתרות של המסלול הנוכחי שלנו. אם מערכת AI חוסכת לחברה מיליוני דולרים אבל גורמת לאובדן של אלף משרות, מי אחראי לעלות החברתית? אנחנו לעיתים קרובות מתייחסים לקידמה טכנולוגית כאל כוח טבע בלתי נמנע, אך היא תוצאה של בחירות ספציפיות שנעשו על ידי אנשים עם תמריצים ספציפיים. מדוע אנחנו מתעדפים אופטימיזציה של רווח על פני יציבות שוק העבודה? ישנה גם השאלה של פרטיות נתונים בעידן שבו כל אינטראקציה היא נקודת אימון. כשאתם משתמשים ב-AI assistant חינמי, אתם לא הלקוח; אתם המוצר. השיחות וההעדפות שלכם משמשים כדי לשכלל מודל שבסופו של דבר יימכר בחזרה לכם או למעסיק שלכם. מה קורה למושג של מחשבה פרטית כשהעוזרים הדיגיטליים שלנו מקשיבים ולומדים ללא הרף?
ההשפעה הסביבתית היא עלות נוספת שלעיתים רחוקות נדונה בחומרי שיווק. אימון מודל גדול בודד יכול לצרוך חשמל כמו מאות בתים בשנה. דרישות הקירור של מרכזי נתונים מפעילות לחץ על אספקת המים המקומית באזורים צחיחים. האם אנחנו מוכנים להחליף יציבות אקולוגית עבור צ'אטבוט מעט טוב יותר? עלינו לשקול גם את ההשפעה ארוכת הטווח על הקוגניציה האנושית. אם אנחנו מוציאים את הכתיבה, הקידוד והחשיבה הביקורתית שלנו למכונות, מה קורה למיומנויות הללו באוכלוסייה האנושית? ייתכן שאנחנו בונים עולם שהוא יעיל מאוד אך מאוכלס באנשים שכבר לא יכולים לתפקד ללא קביים דיגיטליים. אלו אינן בעיות טכניות שייפתרו עם עוד נתונים. אלו שאלות בסיסיות על איזה סוג של עתיד אנחנו רוצים לאכלס.
יש לכם סיפור, כלי, טרנד או שאלה הקשורים ל-AI שלדעתכם כדאי לנו לסקר? שלחו לנו את רעיון המאמר שלכם — נשמח לשמוע.התשתית של השפעה
עבור משתמשי כוח ומפתחים, השאלות האתיות מוטמעות במפרטים הטכניים. המעבר לאחסון מקומי ו-edge computing הוא בחלקו תגובה לדאגות פרטיות. על ידי הרצת מודלים מקומית, משתמשים יכולים להימנע משליחת נתונים רגישים לשרת מרכזי. עם זאת, זה יוצר מערכת חדשה של אתגרים בנוגע לדרישות חומרה ומגבלות API. רוב המודלים בעלי הביצועים הגבוהים דורשים VRAM משמעותי ושבבים מיוחדים שנמצאים כרגע במחסור. זה יוצר צוואר בקבוק שבו רק לבעלי החומרה העדכנית ביותר יש גישה לכלים היכולים ביותר. מפתחים נאבקים גם עם המגבלות של ארכיטקטורות נוכחיות. בעוד ש-transformer models דומיננטיים, הם ידועים לשמצה כקשים לבדיקה. אנחנו יכולים לראות את המשקולות והארכיטקטורה, אבל אנחנו לא יכולים להסביר בקלות מדוע קלט ספציפי מוביל לפלט ספציפי.
האינטגרציה של AI לתוך תהליכי עבודה מקצועיים נתקלת גם היא בקיר של הרעלת נתונים וקריסת מודלים. אם האינטרנט יהיה רווי בתוכן שנוצר על ידי AI, מודלים עתידיים יאומנו על הפלט של קודמיהם. זה מוביל להידרדרות באיכות והגברה של שגיאות. כדי להילחם בזה, חלק מהמפתחים בוחנים מקורות נתונים מאומתים וטכניקות של סימני מים. יש גם דחיפה ל-AI ethics analysis שקוף יותר כדי לעזור למשתמשים להבין את הסיכונים. הקהילה הטכנית מתמקדת כעת בכמה תחומי פיתוח מרכזיים:
- הטמעה של differential privacy כדי להגן על נקודות נתונים אינדיבידואליות בסטים של אימון.
- פיתוח של מודלים קטנים ויעילים יותר שיכולים לרוץ על חומרת צרכנים.
- יצירה של מדדים סטנדרטיים לזיהוי הטיות ושגיאות עובדתיות.
- שימוש ב-federated learning כדי לאמן מודלים על פני מספר מכשירים מבוזרים.
- חקר ארכיטקטורות חדשות שמציעות יכולת פרשנות טובה יותר מרשתות נוירונים סטנדרטיות.
המסלול הלא פתור קדימה
האבולוציה המהירה של בינה מלאכותית עקפה את היכולת שלנו למשול בה. אנחנו נמצאים כרגע במבוי סתום בין הרצון לחדשנות לבין הצורך בהגנה. השאלות האתיות הגדולות ביותר אינן על היכולות של המכונות אלא על הכוונות של האנשים ששולטים בהן. ככל שאנו מתקדמים, המיקוד כנראה יעבור מהמודלים עצמם לשרשרת אספקת הנתונים ולאחריות של המפתחים. אנחנו נותרים עם שאלה חיה שתגדיר את העשור הבא. האם אנחנו יכולים לבנות מערכת שהיא גם חזקה מספיק כדי לפתור את הבעיות שלנו וגם שקופה מספיק כדי לזכות באמון? התשובה עדיין לא כתובה בקוד. היא תוכרע באולמות בתי המשפט, בחדרי ישיבות, ובהחלטות היומיומיות של משתמשים שצריכים להחליט כמה מהאוטונומיה שלהם הם מוכנים להחליף עבור נוחות.
הערת העורך: יצרנו אתר זה כמרכז חדשות ומדריכים רב-לשוני בנושא בינה מלאכותית עבור אנשים שאינם "גיקים" של מחשבים, אך עדיין רוצים להבין בינה מלאכותית, להשתמש בה בביטחון רב יותר, ולעקוב אחר העתיד שכבר מגיע.
מצאת שגיאה או משהו שצריך לתקן? ספר לנו.