کد خبر: ۸۰۴۸۳۰
تاریخ انتشار: ۱۲ اسفند ۱۳۹۷ - ۱۶:۲۹
تعداد بازدید: ۲۵۴
فوربس بررسی کرد:
هوش مصنوعی یک ابزار مهم برای بشر امروزی است که با بی پروایی به راه خود ادامه می دهد، این امر برای منافع ما مفید است و ما با استفاده از تکنیک های یادگیری ماشینی به سود کسب و کار خود کمک می کنیم. اما وقتی که ما قوانین اخلاقی، قوانین، مسئولیت پذیری و نظارت را در خصوص هوش مصنوعی رعایت نکنیم چه اتفاقی می افتد؟
قانون گذاری برای هوش مصنوعی غیرممکن است؟ / فرصتی محدود برای چالشی بزرگهوش مصنوعی یک ابزار مهم برای بشر امروزی است که با بی پروایی به راه خود ادامه می دهد، این امر برای منافع ما مفید است و ما با استفاده از تکنیک های یادگیری ماشینی به سود کسب و کار خود کمک می کنیم. اما وقتی که ما قوانین اخلاقی، قوانین، مسئولیت پذیری و نظارت را در خصوص هوش مصنوعی رعایت نکنیم چه اتفاقی می افتد؟

به گزارش خبرداغ به نقل از  انتخاب، قانونگذاری برای هوش مصنوعی چندان عجیب نیست، اما با توجه به پیچیده بودن قلمرو هوش مصنوعی و ارائه هر روز تکنولوژی های جدید بسیار سخت است که بتوانیم  برای این جهان ناشناخته تعیین تکلیف کنیم.

هوش مصنوعی (AI) محدوده ای علمی از دنیای کامپیوتر است که بر ایجاد ماشینهای هوشمند و انجام واکنش هایی مشابه با انسان ها متمرکز است. اما زمانی که انسان ها نمی توانند تنظیم، کنترل و نظارت بر چگونگی ایجاد، تثبیت و ارتقاء هوش مصنوعی را کنترل کنند چه اتفاقی می افتد؟ آیا وقت آن نیست که کشورهای مختلف برای پیشگیری از حملات خطرناک روباتیک و مبتنی بر هوش مصنوعی تدبیری بیندیشند؟ اساسا وقتی هوش مصنوعی وارد برنامه های سیاسی می شود، آیا نیازی به برنامه های نظارتی وجود ندارد؟

هوش مصنوعی عمدتا به عنوان ابزار تجاری شناخته می شود، اما در حرکتی موازی به سرعت تضاد با اخلاقیات حرکت می کند. تضادی که با اکانت های جعلی، بازسازی چهره های غیرواقعی و تخلفات مالی به وضوح مشهود است.

پیشرفت های اخیر در هوش مصنوعی نشان می دهد که همزمان با افزایش سن هوش مصنوعی نظارتی روی آن وجود ندارد، بلکه بشر صرفا هوش مصنوعی را ارتقاء داده است. اکنون ما می دانیم هوش مصنوعی به راحتی اقدام به جعل اسناد، تصاویر، ضبط صدا، کپی فیلم ها و جعل هویت های آنلاین می کند. بر همین اساس است که بسیاری از کشورها در تلاشند با کمک هوش مصنوعی، ابزاری برای تامین امنیت سایبری طراحی کنند. همین موضوع، ماجرا را پیچیده تر می کند.

اما برای رشد قدرتمند هوش مصنوعی نیاز به یک سیستم قدرتمند تر است. سیستمی که همزمان فرصت های هوش مصنوعی را تضمین کند و  البنه سیستم های مبتنی بر هوش مصنوعی را از تخلف دور نگه دارد. این موضوع می تواند امنیت سایبری را در زمینه های مختلفی از قبیل حمل و نقل، ایمنی، پزشکی، کار، عدالت کیفری و امنیت ملی، تضمین کند.

این حوزه ها به شدت در مظن چالش های اخلاقی، از جمله تعصب اجتماعی قرار دارند.اما برخی معتقدند این موضوع؛ یعنی قانونگذاری های سخت می تواند نوآوری هوش مصنوعی را مختل کند.

هوش مصنوعی می تواند تولید ناخالص داخلی و تولید ناخالص داخلی را افزایش دهد، اما هزینه هایی اجتماعی را به همراه خواهد داشت. در حالی که رهبران سیلیکون ولی مرتب تاکید می کنند که هوش مصنوعی مزایایی باورنکردنی دارد، اما به نظر می رسد سازمان های مهم جهان برای محافظت از بشریت از خطرات بالقوه هوش مصنوعی وظیفه ای سنگین بر دوش دارند.

کنترل تسلیحات هوش مصنوعی نیز ممکن است کاملا غیرممکن باشد. هنری کیسینجر، وزیر امور خارجه پیشین ایالات متحده و معتقد است که کنترل سلاح های هسته ای مبتنی بر هوش صمنوعی طی دهه های آتی یک چالش بزرگ خواهد بود. با نگاهی به دنیایی که رقابت های تسلیحاتی در حوزه هوش مصنوعی را یک ارزش می داند، این ادعا چندان بیراه به نظر نمی رسد.

بر این اساس به نظر می رسد نظارت بر هوش مصنوعی می توان به زودی به موضوعی غیرقابل کنترل تبدیل شود و ما باید اعتراف کنیم که دیگر قادر به کنترل جهان ماشین آلات، الگوریتم ها و پیشرفت های این حوزه نیستیم.
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
نظر شما
در زمینه ی انشار نظرات مخاطبان رعایت چند نکته ضروری است
لطفا نظرات خود را با حروف فارسی تایپ کنید خبر داغ مجاز به ویرایش ادبی نظرات مخاطبان است خبر داغ از انتشار نظراتی که حاوی مطالب کذب, توهین یا بی احترامی به اشخاص ,قومیت ها, عقاید دیگران, موارد مغایر با قوانین کشور و آموزه های دین مبین اسلام باشد معذور است. نظرات پس از تایید مدیر بخش مربوطه منتشر میشود.
نام:
ایمیل:
* نظر: