בעולם הבינה המלאכותית, שקיפות היא נדירה כמו מתכנת שמגלה לבוס שלו שהוא השתמש ב-Ai לכתוב 90% מהקוד. אבל הנה אנתרופיק, שוברת את הכללים ומגלה את הקוד הסודי מאחורי המוח הדיגיטלי שלה.
מה בעצם גילינו?
אנתרופיק פרסמה לאחרונה את ההנחיות המערכתיות שמכוונות את מודלי הבינה המלאכותית שלה: קלוד 3 הייקו, קלוד 3 אופוס וקלוד 3.5 סונט. זה כמו לקבל את ספר ההוראות של מוח מלאכותי. ההנחיות חושפות כיצד קלוד מתוכנן להתמודד עם מגוון מצבים, מהיומיומיים ועד המורכבים ביותר. למשל, בנושאים רגישים, קלוד מונחה לספק מידע מאוזן ועובדתי, בלי לקחת צד.
ההיסטוריה של אנתרופיק
אנתרופיק הוקמה על ידי פורשי OpenAi שהביעו דאגה מהדגש שהושם על רווחים לעומת בטיחות. החברה הצהירה בעבר שלא תשתתף במרוץ החימוש של הצ'טבוטים ולא תציג מודלים מתקדמים יותר על מנת שלא להגביר את התחרות. אולם, לאחרונה הם השיקו את קלוד סונט 3.5, שנחשב לאחד המודלים המובילים בתחומו. זה מעלה שאלות לגבי העקביות בין הצהרות החברה לפעולותיה בפועל.
למה זה משנה?
שקיפות בפיתוח בינה מלאכותית יכולה להוביל לכמה תוצאות. חשיפת ההנחיות מאפשרת ביקורת ציבורית ומעודדת פרקטיקות אתיות יותר. כמו כן, מערכות בינה מלאכותית שקופות יותר עשויות לזכות באמון רב יותר מצד המשתמשים. מהצד השני, קיים חשש שגורמים זדוניים ינצלו את המידע כדי לתמרן את המערכת או לערער את האמון בטכנולוגיה.
החשיפה של אנתרופיק מאפשרת לנו להבין טוב יותר כיצד מתקבלות החלטות של בינה מלאכותית, במיוחד בתרחישים מורכבים או רגישים:
נושאים פוליטיים: קלוד מתוכנן לספק סקירות מאוזנות ועובדתיות, בלי לקחת צד.
שיפור השיח: המערכת מעודדת שיחות ממוקדות על ידי בקשת הבהרות כשהשאלות עמומות מדי.. "עיוורון פנים": קלוד מתוכנן להגיב כאילו אינו מסוגל לזהות פנים בתמונות. זה מעלה שאלות אתיות מעניינות לגבי פרטיות והגבלת יכולות מכוונת.
חשיבה שלב אחר שלב: בבעיות מתמטיות או לוגיות, קלוד מונחה לחשוב "צעד אחר צעד" לפני מתן תשובה סופית.
הימנעות ממילות מילוי: קלוד הונחה להימנע משימוש במשפטי מילוי מיותרים כמו "כמובן!" או "בהחלט!".
אתגרים משפטיים
למרות המאמצים לשקיפות, אנתרופיק נתקלת באתגרים משפטיים. קבוצת סופרים הגישה תביעה נגד החברה, בטענה ל"גניבה בקנה מידה גדול" של ספרים מוגנים בזכויות יוצרים לצורך אימון קלוד. התביעה טוענת שאנתרופיק השתמשה במאגר נתונים הכולל ספרים פיראטיים. זוהי התביעה הראשונה נגד אנתרופיק מצד סופרים, אך החברה כבר מתמודדת עם תביעה דומה מצד מו"לים מוזיקליים הטוענים שקלוד מפיק מחדש מילים של שירים מוגנים בזכויות יוצרים.
מבט לעתיד
המהלך של אנתרופיק עשוי להוות נקודת מפנה בתעשייה. אם חברות נוספות ילכו בעקבותיה, אנחנו עשויים לראות גל חדש של שקיפות בפיתוח בינה מלאכותית. זה יכול להוביל למערכות אמינות ובטוחות יותר, אך גם מעלה אתגרים חדשים בתחום האבטחה, הפרטיות וזכויות יוצרים. בסופו של דבר, השאלה היא האם שקיפות תוביל לבינה מלאכותית אחראית יותר, או שמא תפתח תיבת פנדורה של בעיות חדשות. כרגע, רק הזמן יגיד. אבל דבר אחד בטוח – העולם של הבינה המלאכותית הולך להיות הרבה פחות מסתורי.