אין אחד שלא קם בבוקר וחושב על AI, יישומים, אפשרויות ואיומים
עו"ד הילה שרייבמן, שותפה במח' היי טק, דיני אינטרנט, IT, מדיה ו-AI, שבלת
תיארה שינוי משמעותי בקרב חברות: מעבר מפחד מ-AI להבנה שאימוצו הוא תנאי לשרידות או נצחון תחרותי. חוזים מסחריים ארוכי טווח כבר כוללים סעיפים המתייחסים ל-AI Agents, לבעלות על Prompts ולחלוקת אחריות (Liability).
ארגונים נדרשים להגדיר גבולות טכנולוגיים באמצעות Prompt Engineering ולנסח מדיניות Governance פנימית. נושא ה-Training Data הפך קריטי: יש לוודא משפטית שהשימוש בו מותר. שאלוני ה-DD נהיו מורכבים בהרבה, ודורשים פירוט מעמיק על הבעלות על מודלים, שרשרת הפיתוח והגנת ה-IP.
להרצאתה:
למצגת הרצאתה:
לחצו על התמונה לפתיחת המצגת
עו"ד דעואל הורביץ, מח' הייטק וחבר בצוות AI, שבלת
הציג פרספקטיבה היסטורית וטכנולוגית, והציע כי בשנת 2025 צפויים חידושים משמעותיים כמו תכנות בשפה טבעית, מודלים קטנים שרצים על הטלפון, ויכולת תיאום בין סוכני AI מרובים (Orchestration).
בזירה הרגולטורית הוא תיאר שלושה מודלים מרכזיים:
ארה"ב – רגולציה סקטוריאלית רכה שיוצרת פרגמנטציה בין מדינות.
אירופה – רגולציה רוחבית, רחבה ומבוססת סיכון (blanket regulation), שזכתה לביקורת חזקה.
ישראל – אימצה גם היא גישה סקטוריאלית עם דגש מהותי על הגנת הפרטיות. הבנה רגולטורית מרכזית: האדם במרכז, ולכן מומחי התוכן בכל תחום צריכים לכוון את הרגולציה.
להרצאתו:
למצגת הרצאתו:
לחצו על התמונה לפתיחת המצגת
עו"ד עפר בן יהודה, שותף מנהל, שבלת
פתח את המפגש בתיאור כיצד כלי ה-AI הופכים לאפקטיביים יותר, אך לצד זאת קיים פער בין ציפיות המשתמשים לבין התוצאות בפועל – מה שיוצר תסכול, בנוסף לאתגרים רגולטוריים משמעותיים. שבלת הקימה חברת בת לייעוץ AI, לאו דווקא באספקטים המשפטיים, ומלווה כיום לקוחות בניתוח פערים (gap analysis) ובהתאמת פתרונות מדף.
האתגר המרכזי, לטענת בן יהודה, הוא שמירה על איזון בין קצב החדשנות האינטנסיבי לבין עמידה אחראית ברגולציה. איכות הדאטה, המבוססת על Big Data, מהווה גורם קריטי להצלחת כל פרויקט AI. מערכות אוטונומיות דורשות גבולות פעולה ותקציב כדי למנוע "התרוקנות כיסים". בתחום ה-IP, החוזים כיום חייבים לכלול סעיפים ברורים בנושא Training ו-Licensing, ולהבטיח שה-Output נשאר בבעלות הלקוח. לצד זאת עולים איומים חדשים כגון Prompt Injection והצורך בבידוד Agents.
לדבריו:

פורום ראשי חברות התארח בפירמת עורכי הדין שבלת
את המפגש פתח עו"ד עפר בן יהודה שתיאר כיצד כלי ה-AI הופכים לאפקטיביים יותר, אך לצד זאת קיים פער בין ציפיות המשתמשים לבין התוצאות בפועל – מה שיוצר תסכול, בנוסף לאתגרים רגולטו ריים משמעותיים. שבלת הקימה חברת בת לייעוץ AI, לאו דווקא באספקטים המשפטיים, ומלווה כיום לקוחות בניתוח פערים (gap analysis) ובהתאמת פתרונות מדף.
האתגר המרכזי, לטענת בן יהודה, הוא שמירה על איזון בין קצב החדשנות האינטנסיבי לבין עמידה אחראית ברגולציה. איכות הדאטה, המבוססת על Big Data, מהווה גורם קריטי להצלחת כל פרויקט AI. מערכות אוטונומיות דורשות גבולות פעולה ותקציב כדי למנוע "התרוקנות כיסים". בתחום ה-IP, החוזים כיום חייבים לכלול סעיפים ברורים בנושא Training ו-Licensing, ולהבטיח שה-Output נשאר בבעלות הלקוח. לצד זאת עולים איומים חדשים כגון Prompt Injection והצורך בבידוד Agents.
אחריו הציג עו"ד דעואל הורביץ פרספקטיבה היסטורית וטכנולוגית, והציע כי בשנת 2025 צפויים חידושים משמעותיים כמו תכנות בשפה טבעית, מודלים קטנים שרצים על הטלפון, ויכולת תיאום בין סוכני AI מרובים (Orchestration).
בזירה הרגולטורית הוא תיאר שלושה מודלים מרכזיים:
ארה"ב – רגולציה סקטוריאלית רכה שיוצרת פרגמנטציה בין מדינות.
אירופה – רגולציה רוחבית, רחבה ומבוססת סיכון (blanket regulation), שזכתה לביקורת חזקה.
ישראל – אימצה גם היא גישה סקטוריאלית עם דגש מהותי על הגנת הפרטיות. הבנה רגולטורית מרכזית: האדם במרכז, ולכן מומחי התוכן בכל תחום צריכים לכוון את הרגולציה.
לאחר מכן הציגה עו"ד הילה שרייבמן שתיארה שינוי משמעותי בקרב חברות: מעבר מפחד מ-AI להבנה שאימוצו הוא תנאי לשרידות או נצחון תחרותי. חוזים מסחריים ארוכי טווח כבר כוללים סעיפים המתייחסים ל-AI Agents, לבעלות על Prompts ולחלוקת אחריות (Liability).
ארגונים נדרשים להגדיר גבולות טכנולוגיים באמצעות Prompt Engineering ולנסח מדיניות Governance פנימית. נושא ה-Training Data הפך קריטי: יש לוודא משפטית שהשימוש בו מותר. שאלוני ה-DD נהיו מורכבים בהרבה, ודורשים פירוט מעמיק על הבעלות על מודלים, שרשרת הפיתוח והג נת ה-IP.
ולבסוף עו"ד ניר פיינברג התמקד בתפקידה של רשות הגנת הפרטיות (PPA), המפקחת כיום גם על מערכות AI – "קופסה שחורה" שיכולה להשפיע עמוקות על החברות. תיקון 13 לחוק הגנת הפרטיות חיזק את חובות הארגונים, במיוחד בנוגע לצדדים שלישיים (שרשרת האספקה) וחובות הודעה, והעניק ל-PPA סמכויות אכיפה משמעותיות.
ה-PPA מביטה על כלל מחזור חיי הדאטה במערכת AI: אימון, קלט ופלט. שימוש במידע אישי דורש בסיס חוקי, ובישראל לרוב נדרשת הסכמה – גם לשימושים פנים-ארגוניים. המפתח הוא אחריות: מצופה שנושאי משרה ודירקטורים יטמיעו תוכניות אכיפה, יגדירו מדיניות ארגונית ויפקחו באופן שוטף על תחומי המידע והטכנולוגיה, הנחשבים היום לסיכון עסקי מהותי.
תודותנו לשבלת על האירוח.
עו"ד ניר פיינברג, שותף במח' הייטק וראש תחום סייבר, מידע ופרטיות, שבלת
התמקד בתפקידה של רשות הגנת הפרטיות (PPA), המפקחת כיום גם על מערכות AI – "קופסה שחורה" שיכולה להשפיע עמוקות על החברות. תיקון 13 לחוק הגנת הפרטיות חיזק את חובות הארגונים, במיוחד בנוגע לצדדים שלישיים (שרשרת האספקה) וחובות הודעה, והעניק ל-PPA סמכויות אכיפה משמעותיות.
ה-PPA מביטה על כלל מחזור חיי הדאטה במערכת AI: אימון, קלט ופלט. שימוש במידע אישי דורש בסיס חוקי, ובישראל לרוב נדרשת הסכמה – גם לשימושים פנים-ארגוניים. המפתח הוא אחריות: מצופה שנושאי משרה ודירקטורים יטמיעו תוכניות אכיפה, יגדירו מדיניות ארגונית ויפקחו באופן שוטף על תחומי המידע והטכנולוגיה, הנחשבים היום לסיכון עסקי מהותי.
להרצאתו:
למצגת הרצאתו:
לחצו על התמונה לפתיחת המצגת




