Button Examples בואו נדבר!>
Keren Shahar Chozen1-06
Button Examples בואו נדבר!>
Keren Shahar Chozen1-06

סגנית נשיא הנציבות האירופית, עוררה דיון על ההשלכות של הטכנולוגיות החדשות

"כשזה מגיע לייצור בינה מלאכותית, אני לא מאמינה שמכונות צריכות לקבל את הזכות לחופש הביטוי…"

ההצהרה של סגנית נשיא הנציבות האירופית, עוררה דיון על ההשלכות של הטכנולוגיות החדשות והפוטנציאל של #AI לעצב את עתידנו.

האיחוד האירופי דן בחוקים לקידום שימוש אתי והפחתת הסיכונים הקשורים לבינה מלאכותית: חוקים אלה משתמשים במתודולוגיה מבוססת סיכונים כדי לקבוע תוצאות וקובעים חובות לספקים ולמשתמשים בהתאם לרמת הסיכון הנשקפת מ-AI הם גם מתכננים לאסור מערכות בינה מלאכותית המהוות רמות סיכון בלתי מקובלות הם מתכוננים לתמוך באיסור על מערכות זיהוי ביומטריות מרחוק, קיטלוג המבוסס על מאפיינים רגישים, שיטור חזוי ומערכות זיהוי רגשות
ומציעים כללים מותאמים אישית ליצירת AI כמו Chat-GPT ועולמות התוכן והויז׳ואל בכלל, הכוללת חובה לסימון של תוכן שנוצר ע״י AI לקדם את טכנולוגיות של חדשנות, חברי האיחוד הציעו פטורים לפעילויות מחקר ורכיבי AI בקוד פתוח, כמו גם שימוש ב"תאים רגולטוריים של בינה מלאכותית" שהן למעשה סביבות מבוקרות שנוצרו על ידי רשויות ציבוריות לבדיקת AI
הם יעשו זאת לפי ארבע רמות סיכון, החל ממינימום לבלתי מקובל. רמה לא מקובלת פירושה ששימוש מסוים ב-AI אסור; לדוגמה, מערכת האשראי החברתי בה ממשלת סין מדרגת את האזרחים כ"טובים" או "רעים". דוגמא זו, כאמור, נמצאת ברמת הבלתי מקובל הגבוה ביותר
שימושים בלתי מקובלים נוספים כוללים זיהוי ביומטרי בזמן אמת במרחבים ציבוריים, שבהם AI סורקת את הפנים שלך ואז מזהה אותך אוטומטית. שימוש בלתי מקובל נוסף הן מערכות AI הנכללות בקטגוריות סיכון גבוה, כגון תעסוקה והשכלה, שיכולים להשפיע על מהלך חייו של אדם.
כמו כן, הם יידרשו לעמוד בדרישות מחמירות כמו שקיפות ושימוש בנתונים מדויקים. הפרת הכללים עלולה לגרור קנסות של עד 6% מההכנסה הגלובלית השנתית של חברה
אחד הנושאים החשובים ביותר העומדים לפניהם הוא כיצד תוגדר AI. יש צורך להגביל נזקים וסיכונים מסוימים, אך, מצד שני, יש להימנע מליצור קשיים לקידמה טכנולוגית וחדשנות. לדברי האיחוד, אם המונח AI יוגדר תוך כדי ראיה צרה ומצומצמת, קיים סיכון להתעלם מנזקים מסוימים שיש להגביל.
מטרת החוק החדש היא להגדיר ערכים וחובות בצורה שתחזיק מעמד לאורך זמן, למרות שינויי הטכנולוגיה. אישורו הסופי של החוק צפוי עד סוף השנה או תחילת 2024 לכל המאוחר. לאחר מכן, תהיה תקופת חסד של כשנתיים לחברות וארגונים להסתגל לחוקים החדשים.
סגנית נשיא הנציבות האירופית, ורה יורובה, הביעה את עמדתה בנוגע לבינה מלאכותית והצהירה: "כשזה מגיע לייצור בינה מלאכותית, אני לא מאמינה שמכונות צריכות לקבל את הזכות לחופש הביטוי…״
היא מציינת כי החותמים על "קוד ההתנהגות״ של האיחוד האירופי צריכים ליישם טכנולוגיה שמזהה תוכן המיוצר על ידי מערכות בינה מלאכותית ותסמן אותו בבירור למשתמשים. מערכות AI צריכות להיות תואמות את המטרות והעקרונות של האיחוד האירופי, וצריכות לטפל באיומים כגון מידע סותר ופגיעה באמון.
עוד אמרה, כי הועלו הצעות חדשות להבטיח שיתוף פעולה בין הגורמים השונים, כמו חוקים להתמודדות עם סוגים שונים של מידע, חובות לזהירות מפני מערכות בינה מלאכותית ועוד. האיחוד האירופי נמצא בתהליך של יצירת מערכת כללים מקיפה לניהול סיכוני בינה מלאכותית וקידום שימושים אתיים של AI
כללים אלו, שיהיו הראשונים מסוגם בעולם, צפויים להיות מאומצים על ידי חברי הפרלמנט האירופי (MEP) בקרוב. הם פועלים לפי גישה מבוססת סיכונים ומגדירים חובות הן לספקי AI והן למשתמשים בהתאם לרמת הסיכון שה-AI יכול ליצור. מטרתם לאסור מערכות בינה מלאכותית עם רמות סיכון בלתי מקובלות. 

כתיבת תגובה