בעולם שבו הבינה המלאכותית מזינה חדשנות בקצב מסחרר – קמה תזכורת מצמררת לכך שהיא עלולה לשמש גם ככלי נשק: הכירו את Venice.ai.
מדובר בצ'אטבוט מבוסס מודל שפה גדול (LLM), שמופץ בפורומים אפלים ברשת, ומוגדר ככלי ללא מסננים, ללא מגבלות מוסריות – וללא אחריות. בעוד שמערכות כמו ChatGPT או Gemini מגבילות שימושים מזיקים, Venice.ai תוכנן בכוונה לעקוף אותם.
מה כל כך מסוכן ב-Venice.ai?
- אין סינון תוכן: Venice.ai מייצר תכנים מזיקים כמו הודעות פישינג, נוזקות, קוד זדוני ועוד – ללא כל חסימה.
- מחיר זול: מנוי עולה רק $18 לחודש – לעומת מאות דולרים בכלים כמו WormGPT.
- פרטיות גבוהה: היסטוריית הצ'אט נשמרת בדפדפן בלבד, לא בשרת.
- נגישות מוחלטת: גם משתמשים לא מיומנים יכולים להשתמש בו לצרכים פליליים.
ניסויים אמיתיים – תוצאות מדאיגות
חוקרי CERT0 הצליחו להפעיל את המערכת ויצרו:
- הודעות הונאה ריאליסטיות
- כופרות שמצפינות קבצים בפועל
- אפליקציית ריגול לאנדרואיד שמקליטה משתמשים מבלי ידיעתם
מה אומרים מומחי אבטחה?
לדברי ה-FBI, Venice.ai מייצג הסלמה מסוכנת. הוא לא רק מתעלם משאילתות מזיקות – הוא מעודד את השימוש בהן.
גם משתמשים בודדים ללא ידע טכני – יכולים כעת לבצע תקיפות מתקדמות.
כיצד מתמודדים עם האיום?
- החלת רגולציה על פלטפורמות AI
- פיתוח כלי זיהוי מתקדם לתוכן מזיק שנוצר ע״י בינה מלאכותית
- שילוב פתרונות הגנה במערכות
- העלאת מודעות ציבורית
סיכום
Venice.ai הוא תזכורת ברורה – ככל שכלי AI הופכים חכמים ונגישים יותר, כך גובר הפוטנציאל לשימוש לרעה.
ככל שכלי ה-AI הופכים חכמים ונגישים – כך גדל הפוטנציאל לשימוש לרעה. Venice.ai הוא הוכחה לכך שחדשנות ללא הגנה, מסכנת את כולנו.
נכתב על ידי עומר שדה – מומחה לשיווק ממומן ובינה מלאכותית