Web Analytics Made Easy - Statcounter

به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از نیویورک تایمز، امروز تعدادی از توسعه دهندگان صنعت هوش مصنوعی اعلام کردند این فناوری می تواند به اندازه ویروس های همه گیر یا بمب های هسته ای خطرناک باشد. سازمان خصوصی Center for AI Safety با انتشار یک اطلاعیه ای اعلام کرد که کاهش خطر انقراض به واسطه هوش مصنوعی باید در کنار سایر تهدیدات بزرگ از جمله ویروس ها و نبردهای هسته ای درنظر گرفته شود.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

بیانیه این سازمان توسط بیش از ۳۵۰ عضو ارشد فعال در زمینه هوش مصنوعی امضا شده است.

در میان افرادی که این بیانیه را امضا کرده اند نام سم آلتمن مدیر عامل شرکت اپن ای آی و سازنده هوش مصنوعی چت چی پی تی، دمیس هاسابیس مدیر عامل بخش دیپ مایند گوگل جفری هینتون و یوشوئا بنجیو، دو تن از سه محققی که جایزه تورینگ در زمینه شبکه های عصبی را دریافت کردند به عنوان بنیانگذاران صنعت هوش مصنوعی شناخته می شوند به چشم می خورد.

این بیانیه درست در زمانی منتشر شد که نگرانی فزاینده در مورد آینده و خطرات هوش مصنوعی در جهان وجود دارد و پیشرفت های اخیر چت بات ها این نگرانی که هوش مصنوعی می تواند مشاغل میلیون ها نفر را از بین ببرد را به وجود آورده است. در ماه های اخیر نیز سم آلمتن که این بیانیه را نیز امضا کرده است درباره نگرانی خود از آینده هوش مصنوعی در مجلس سنا آمریکا حرف زده بود.

دن هندریکس مدیر اجرایی مرکز ایمنی هوش مصنوعی نیز در مصاحبه ای اعلام کرد حتی در میان توسعه دهندگان هوش مصنوعی نیز نگرانی وجود دارد و این اشتباه است که بگوییم صرفا افراد کمی به این فناوری بدبین هستند.

هفته گذشته نیز سم آلتمن در وبلاگ خود خواستار همکاری بین هوش های مصنوعی سطح بالا شد و درخواست تشکیل یک نهاد بین المللی برای کنترل این فناوری را داشت. 

پایان پیام/

 

منبع: فارس

کلیدواژه: هوش مصنوعی خطرات هوش مصنوعی اپن ای آی هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.farsnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «فارس» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۶۸۰۸۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

مایکروسافت استفاده از ابزار هوش مصنوعی تشخیص چهره را برای پلیس آمریکا ممنوع کرد

ایتنا - مایکروسافت محدودیت‌هایی برای پلیس آمریکا در زمینه استفاده از فناوری تشخیص چهره از طریق ابزارهای هوش مصنوعی این شرکت ایجاد کرده است.
این غول فناوری آمریکایی با به‌روزرسانی شرایط عمومی استفاده از خدمات «آژور اوپن‌ای‌آی» Azure OpenAI Service که به متخصصان امکان دسترسی به مدل‌های زبانی و نیز تعدیل محتوا و طراحی امن برنامه‌های کاربردی هوش مصنوعی را می‌دهد، به‌ شکلی صریح استفاده از آن توسط پلیس آمریکا ممنوع کرده است.

مایکروسافت به‌عنوان شریک مؤسسهٔ پژوهشی هوش مصنوعی آمریکایی «اوپن‌ای‌آی» OpenAI، تمایلی ندارد که پلیس آمریکا از سرویس هوش مصنوعی این شرکت برای تشخیص چهره استفاده کند.

طبق گزارش وب‌سایت تخصصی TechCrunch، این شرکت تایید کرده که با به‌روزرسانی شرایط عمومی استفاده از خدمات Azure OpenAI Service، دست به اعمال چنین ممنوعیتی زده است.

این سرویس به کسب‌وکارها و توسعه‌دهندگان امکان می‌دهد تا به مدل‌های زبانی ارائه شده از سوی «اوپن‌ای‌آی» مانند «جی‌پی‌تی‌۴» دسترسی داشته باشند.

در نسخه به‌روزرسانی‌ شده از شرایط عمومی استفاده از خدمات «آژور اوپن‌ای‌آی» آمده است که نباید از این سرویس برای مقاصد تشخیص چهره توسط یا برای یک آژانس اجرای قانون در ایالات متحده استفاده شود.

 

ممنوعیت صریح
مایکروسافت همچنین به صراحت اعلام کرده است که مجریان قانون مجاز به استفاده از این ابزارهای جانبی برای «هیچیک از فناوری‌های تشخیص چهره در زمان واقعی روی دوربین‌های موبایل (...) با هدف تلاش برای شناسایی افراد در محیط‌های کنترل نشده» نیستند.

به طور مشخص، افسران پلیس که مجهز به دوربین‌هایی با قابلیت تشخیص چهره هستند حین انجام گشت‌زنی‌ نمی‌توانند از خدمات «آژور اوپن‌ای‌آی» در دوربین‌های خود استفاده کنند.

این ممنوعیت بر اساس به روزرسانی جدید مایکروسافت برای دوربین‌هایی که روی داشبورد خودرو ماموران پلیس نصب می‌شوند نیز لحاظ شده است.

این به روزرسانی یک هفته پس از آن صورت می‌گیرد که «آکسون»، سازنده محصولات فناوری و تسلیحات برای مجریان قانون، از محصول جدیدی با استفاده از «جی‌پی‌تی‌۴»، یک مدل زبانی تحت هوش مصنوعی رونمایی کرد.

این محصول که «درافت وان» Draft One نام دارد، ابزاری مجهز به هوش مصنوعی است که می‌تواند به پلیس در تهیه و تولید گزارش‌هایی بر اساس محتوای دوربین‌های نصب شده روی یونیفورم ماموران کمک کند.

آکسون پس از آنکه «اوپن‌ای‌آی» در ژانویه گذشته شرایط عمومی استفاده از خدمات خود را به روز کرد و در آن طور صریح استفاده از مدل هوش مصنوعی برای مقاصد نظامی ممنوع اعلام نشده بود، توانست از فناوری این شرکت برای توسعه محصول خود استفاده کند.

تبعات ممنوعیت اعمال شده از سوی مایکروسافت برای دسترسی ماموران پلیس و مجریان قانون به ابزارهای هوش مصنوعی تشخیص چهره هنوز مشخص نیست.

باید دید که آیا پلیس ایالات متحده راه‌هایی برای دور زدن این ممنوعیت پیدا می‌کند و اینکه آیا این اقدام مایکروسافت بر سایر شرکت‌هایی که فناوری‌های مشابهی را ارائه می‌کنند تأثیر می‌گذارد یا خیر.

دیگر خبرها

  • هوش مصنوعی رقیب گوگل و اوپن ای آی در راه است
  • هوش مصنوعی ناشناخته‌های کیهان را کشف می‌کند
  • جلیل سبحانی از ورود هوش مصنوعی به صنایع پتروشیمی خبر داد
  • هوش مصنوعی راهی برای کلاهبرداری است!
  • سرمایه‌گذار معروف: هوش مصنوعی راهی برای کلاهبرداری است
  • این فناوری زمین را از گزند سیارک ها حفظ می کند
  • مایکروسافت استفاده از ابزار هوش مصنوعی تشخیص چهره را برای پلیس آمریکا ممنوع کرد
  • پردازش انسان‌گونه داده‌ها با استارت‌آپ «هوش فضایی»
  • داده‌های آموزشی هوش مصنوعی عرصه جدید رقابت شرکت‌های بزرگ فناوری
  • پایان سلطه گوگل با این موتور جست‌وجوی جدید