בצעד נועז המבטיח לעצב מחדש את נוף הבינה המלאכותית, איליה סוצקבר, מייסד שותף ומדען ראשי לשעבר של OpenAI, הכריז על השקת סטארט-אפ חדש של בינה מלאכותית: Safe Superintelligence Inc או בקיצור SSI. מיזם זה, עם התמקדות ייחודית בבטיחות, מוכן לתת מענה לדאגות ההולכות וגוברות לגבי התקדמות מהירה של טכנולוגיות בינה מלאכותית והשלכותיהן על החברה.
התמקדות בבטיחות
המשימה של SSI ברורה וחד משמעית: ליצור מערכת AI בטוחה וחזקה. הודעתו של סוצקבר הדגישה, כי החברה תעדיף את הבטיחות מעל הכל, בניגוד מוחלט ללחצים המסחריים איתם מתמודדים לעתים קרובות צוותי בינה מלאכותית בענקיות טכנולוגיה כמו OpenAI, גוגל, מיקרוסופט ואפל. מיקוד יחיד זה מאפשר ל-SSI לחדש ולהתרחב מבלי להיות מוסחת על ידי דרישות מסחריות מצד בעלי המניות או האופי המחזורי של פיתוח המוצר.
"המודל העסקי שלנו אומר שבטיחות, ביטחון והתקדמות של כולם, מבודדים מלחצים מסחריים קצרי טווח", הצהיר סוצקבר. "בדרך זו נוכל להתרחב בשלום."
מנהיגות עם חזון
אל סוצקבר מצטרפים לעשייה השאפתנית הזו דניאל גרוס ודניאל לוי, שניהם מביאים לשולחן ניסיון ומומחיות. גרוס, לשעבר מוביל בינה מלאכותית באפל, ולוי, ששימש כחבר בצוות הטכני ב-OpenAI, חולקים את החזון של סוצקבר לעתיד בטוח יותר של AI. הידע והמסירות המשולבים שלהם מציבים את SSI כשחקן בעל פוטנציאל משמעותי בתעשיית AI.
תגובה להתפתחויות בתעשייה
הקמת SSI מגיעה בעקבות אירועים משמעותיים בקהילת הבינה המלאכותית. בשנה שעברה, סוצקבר הוביל מהלך שנוי במחלוקת להדיח את מנכ"ל OpenAI, סם אלטמן, וסימן דאגה שורשית לגבי הכיוון שאליו צועד פיתוח בינה מלאכותית. עזיבתו של סוצקבר את OpenAI בחודש מאי האחרון גררה עד מהרה מהלכי התפטרות נוספים מצד דמויות מפתח בתעשייה, כמו חוקר הבינה המלאכותית יאן לייק וחוקר המדיניות גרטשן קרוגר, שניהם ציינו חששות בטיחות כסיבה העיקרית שלהם לעזיבה.
לייק, במיוחד, הצר על כך שתהליכי הבטיחות ב-OpenAI "תפסו מושב אחורי למוצרים מבריקים", סנטימנט שהדהד קרוגר. יציאה קולקטיבית זו מדגישה אי נוחות גוברת בקרב קהילת הבינה המלאכותית ביחס לתעדוף של פיתוח מהיר ומוצרים סחירים על פני הצורך החיוני בשיקולי בטיחות ואתיקה.

קרדיט: Ilya Sutskever X
נתיב אחר לפיתוח בינה מלאכותית
בניגוד לשותפויות של OpenAI עם ענקיות בתעשייה כמו אפל ומיקרוסופט, SSI מתווה מסלול משלה. במהלך ראיון עם בלומברג, הבהיר סוצקבר שהמוצר הראשון של SSI יהיה מודיעין-על בטיחותי, והחברה "לא תעשה שום דבר אחר" עד שהמטרה הזו תושג. מחויבות איתנה זו למטרה יחידה מדגישה את מסירותה של החברה למשימתה.
הדרך קדימה
השקת SSI מייצגת רגע מרכזי בתעשיית הבינה המלאכותית. ככל שטכנולוגיות בינה מלאכותית ממשיכות להתפתח בקצב עוצר נשימה, הצורך בפרוטוקולי בטיחות חזקים ושיקולים אתיים נעשה קריטי יותר ויותר. הגישה של SSI, משלבת בטיחות ויכולות במקביל, ומציעה דרך מבטיחה קדימה.
החזון של סוצקבר עבור SSI אינו רק יצירת מערכות בינה מלאכותית מתקדמות, אלא לבצע זאת באופן שמבטיח שהן בטוחות, מאובטחות ומועילות לכל האנושות. על ידי בידוד קצב התקדמותה מלחצים מסחריים קצרי טווח, SSI שואפת לקבוע סטנדרט חדש לפיתוח בינה מלאכותית אחראית.
כשהעולם יצפה במסע של SSI, יהיה מעניין לראות, כיצד הניסוי הנועז הזה יתפתח? האם הגישה של SSI תשפיע על חברות AI אחרות לחשוב מחדש על האסטרטגיות שלהן? האם סטארטאפ עם מיקוד יחיד כזה באמת יכול להשפיע משמעותית על התעשייה? רק הזמן יגיד, אבל דבר אחד בטוח: סוצקבר והצוות שלו מחויבים להוכיח שמודיעין-על בטיחותי הוא לא רק אפשרות, אלא הכרח לעתיד הבינה המלאכותית.
גילו נאות: באיתור התוכן לכתיבת המאמר בוצע שימוש בכלי הבינה המלאכותית ChatGPT