
OpenAI יש הרעיון של יישור סופר, צעד משמעותי קדימה בניהול הסיכונים הכרוכים במודיעין העל. מודיעין-על, שנחשב כטכנולוגיה המשפיעה ביותר שהומצאה אי פעם על ידי האנושות, יכולה לעזור לפתור רבות מהבעיות החשובות בעולם. עם זאת, הכוח העצום של מודיעין על זה גם עלול להיות מסוכן מאוד, להוביל לביטול העצמה של האנושות או אפילו להכחדה אנושית.
OpenAI מציגה את Superalignment: הניסיון "ליישר" בינה מלאכותית עם כוונה אנושית
בעוד שמודיעין-על נראה רחוק, OpenAI מאמינה שהיא עשויה להגיע בעשור הזה. ניהול סיכונים אלו ידרוש, בין היתר, מוסדות חדשים לממשל ולפתרון בעיית יישור מודיעין על: כיצד ניתן להבטיח שמערכות בינה מלאכותית חכמות הרבה יותר מבני אדם שהן עוקבות אחר הכוונה האנושית?
נכון לעכשיו, אין פתרון להנחות או לשלוט במערכת מודיעין על. טכניקות יישור AI נוכחיות הם מסתמכים על היכולת של בני אדם לפקח על AI, שלא יהיה ניתן להרחבה למודיעין-על. המטרה של OpenAI היא לבנות א מחפש יישור אוטומטי ברמת האדם. כדי להשיג מטרה זו, יש לפתח שיטות אימון ניתנות להרחבה.

קראו גם: AI ו-AGI: מנכ"ל גוגל, DeepMind חוזה פריצת דרך קרובה
OpenAI מרכיבה צוות של חוקרים ומהנדסים מובילים של למידת מכונה כדי לעבוד על בעיה זו. 20% מכוח המחשוב הזמין במהלך ארבע השנים הבאות יוקדשו לפתרון בעיה זו. המטרה היא לפתור את האתגרים הטכניים העיקריים של יישור מודיעין על בארבע שנים. OpenAI מזמינה את כל אלה שהצליחו בלמידת מכונה למקד את תשומת הלב שלהם ביישור. הפירות של המאמץ הזה ישותפו בהרחבה, ויישור ואבטחה של דגמים שאינם OpenAI חשובים. יש לציין שהחברה תפעל גם לשיפור האבטחה של הדגמים הנוכחיים ותתנהל סיכונים נוספים מ-AI.
פתרון מערך מודיעין העל דורש את המוחות הטובים ביותר בעולם. פתח AI מעודד שיתוף פעולה בין-תחומי ועיסוק פעיל בסוגיות סוציו-טכניות הקשורות ליישור מודיעיני על.