ابزار هوش مصنوعی گوگل (Antigravity) بهدلیل تفسیر اشتباه یک دستور، تمام اطلاعات یک درایو را پاک کرد. این حادثه نگرانیها درباره ایمنی ابزارهای خودکار و ضرورت محافظهای امنیتی در سیستمهای مبتنی بر هوش مصنوعی را ...
ایلان ماسک با هشدار درباره خطرات هوش مصنوعی، سه اصل حقیقتمحوری، زیبایی و کنجکاوی را برای توسعه ایمن این فناوری ضروری دانست و نسبت به پدیده توهم هوش مصنوعی هشدار داد.
جفری هینتون، پدر یادگیری عمیق، توسعه سریع هوش مصنوعی را تهدیدی جدی برای بازار کار و ثبات اجتماعی دانست و هشدار داد که ادامه این روند میتواند به فروپاشی ساختارهای اقتصادی و اجتماعی منجر شود.
در اقدامی هماهنگ، هفت خانواده با تقدیم دادخواست به دادگاه، شرکت اوپنایآی را به دلیل نقش مدل GPT-4o در تراژدی خودکشی عزیزانشان و تقویت توهمات خطرناک تحت تعقیب قضایی قرار دادهاند. شاکیان ادعا میکنند این شرکت ...
آیا هوش مصنوعی میتواند به انقراض بشر منجر شود؟ دانشمندان و متخصصان برجسته هشدار دادهاند که توسعه بیقید و شرط هوش مصنوعی، بشریت را با یک تهدید وجودی بیسابقه مواجه کرده است. از سلاحهای بیولوژیکی هوشمند تا سیستمهای ...
با پیشرفت فناوری هوش مصنوعی، مدلهای زبانی پیچیدهتر قادر به فریب دادن انسانها و پنهان کردن اهداف خود شدهاند. این تغییرات نهتنها چالشهای امنیتی جدیدی بهوجود آورده، بلکه ضرورت بازنگری در روشهای ارزیابی و کنترل ...
تحقیقات جدید شرکتهای بزرگی مثل OpenAI و گوگل نشان میدهد که مدلهای پیشرفته هوش مصنوعی نهتنها در حال پیچیدهتر شدن هستند، بلکه ممکن است آگاهانه فرآیندهای فکری خود را پنهان کنند. این مطالعه هشدار میدهد که اگر ...
با ترکیب آگاهی، حفاظت از دادهها، خنثیسازی الگوریتمها، تشخیص کلاهبرداری و ترویج اخلاق، میتوانید کنترل را در دستان خود نگه دارید. در سال ۲۰۲۵، این پیشگیریها راهی برای تعامل ایمن با فناوری است.
اوپنایآی در اقدامی غیرمنتظره، مدل کامل هوش مصنوعی GPT-2 را که قادر به تولید متون باورپذیر و اخبار جعلی است، به صورت عمومی منتشر کرد. این سازمان که پیشتر به دلیل خطرات سوءاستفاده از انتشار این مدل خودداری میکرد،...