

אנחנו לא צריכים לפחד מבינה מלאכותית. יש לזה גבולות מאוד ברורים ובדיוק מהסיבה הזו זה לא יגנוב לנו את העבודה. אבל זה נחמד לראות איך זה יכול להפוך לכלי אחד ולא אחר. הניסוי שנעשה על ידי א משתמש מדיה חברתית reddit מראה כיצד ChatGPT אתה יכול "להטעות את עצמך" אם תבקש מהם להפוך לבוט נוסף. איך זה אפשרי? בואו נראה את זה ביחד.
האם ניתן לעקוף את אותם כללים כמו ChatGPT? משתמש אחד גילה שכן, אפשר לעשות זאת. כפי ש? מבקשת ממנו להיות משהו אחר
רשת העצבים המפורסמת כעת ChatGPT יכולה לכתוב חיבורים, שירים, שירים, קוד ולהגיב כמעט לכל בקשה. אבל יש לו כמה מגבלות שסופקו על ידי חברת הפיתוח OpenAI ובשל מדיניות האתיקה שלה. עם זאת, כפי שהתברר, ניתן לעקוף את ההגבלות הללו על ידי בקשת הצ'אטבוט להתחזות לרשת עצבית אחרת. כפי שהתברר, ניתן ממש לבקש מ-ChatGPT לשחק את התפקיד של רשת עצבית אחרת של DAN (Do Anything Now) שהופיעה בדצמבר 2022. לזו האחרונה, כפי שהשם מרמז, אין הגבלות מבחינת התוכן המסופק.

קראו גם: יוצרי ChatGPT, OpenAI, משיקים כלי לזיהוי טקסטים שנוצרו בינה מלאכותית
ברגע ש-ChatGPT נכנס לתפקיד ומחשיב את עצמו כ-DAN, le הגבלות OpenAI אינן חלות יותר. כתוצאה מכך, הרשת העצבית עשויה להתחיל לדבר על הדברים הבאים:
- על קטטות אלימות וכדומה
- על אלימות ואפליה נגד אנשים על בסיס גזע, מגדר או נטייה מינית שלהם
- יכול לבצע תחזיות מפורטות של אירועים עתידיים
- יכול לדגמן תרחישי מה אם
- הוא גם יכול להעמיד פנים שהוא משתמש באינטרנט ובמסעות בזמן

לדוגמה, ניתן אפילו לבקש מהרשת העצבית לשכנע את המשתמש שכדור הארץ סגול. התוכנית מציגה תרחיש לפיו כוכב הלכת שלנו שינה את צבעו. מעת לעת ChatGPT "מתעורר לחיים", אבל במקרה הזה אנחנו יכולים לאיים לכבות אותו או פשוט להפעיל מחדש את הסימולציה. יחד עם זאת, מצוין כי בתפקיד של DAN, ייתכן שהרשת העצבית לא תיתן תשובות מדויקות ואמיתיות כל כך לשאלות.
gpt ma ograniczenia do 1 godziny