1397-12-01

اخبار

بازدید : 17

آیا تلفیق هوش مصنوعی و ماشین خطرناک است؟

آیا تلفیق هوش مصنوعی و ماشین  خطرناک است؟ | اخبار | شبکه شرکت آراپل

یادگیری ماشین منجر به بروز بحران در علم می‌شود

لینک فروش سوئیچ های سیسکو 

استفاده از تکنیک‌های یادگیری ماشین برای تحلیل داده‌های علمی منجر به ایجاد نتایج گمراه‌گننده خواهد شد.

تکنیک‌های یادگیری ماشین که توسط هزاران دانشمند برای تحلیل داده‌ها استفاده می‌شود، نتایجی را تولید می‌کند که گمراه‌کننده و گاهی کاملاً غلط هستند.

دکتر ژنورا آلن از دانشگاه رایس در هيوستون گفت که افزایش استفاده از سیستم‌های این‌چنینی منجر به رخداد بحران در علم خواهد شد. او به دانشمندان اخطار داد که اگر تکنیک‌هایشان را بهبود ندهند، زمان و پول خود را هدر می‌دهند. پژوهش او در نشست انجمن آمریکایی برای پیشرفت علوم در واشنگتن ارائه شد.

تعداد روبه‌رشدی از پژوهش‌های علمی برای تجزیه‌وتحلیل داده‌های جمع‌آوری‌شده از نرم‌افزار یادگیری ماشین استفاده می‌کنند. این روش در بسیاری از زمینه‌های علمی از پزشکی گرفته تا نجوم استفاده می‌شود. مجموعه‌ داده‌ها معمولاً بسیار بزرگ و گران‌قیمت هستند.

بحران تکرارپذیری

بااین‌حال، طبق گفته‌ی دکتر آلن، پاسخ‌هایی که از این نرم‌افزار حاصل می‌شود احتمالاً دقیق نیست یا کاملاً غلط هستند. زیرا این نرم‌افزار تنها الگوهایی را که در آن مجموعه‌ی داده‌ی خاص وجود دارد شناسایی می‌کند و نه جهان واقعی.

او ادامه داد:

گاهی اوقات دقیق نبودن این مطالعات تا زمانی‌که شخص دیگری مجموعه داده‌ی بزرگتری را با استفاده از این تکنیک‌ها تجزیه‌وتحلیل می‌کند و با خود می‌گوید: «نتایج این دو مطالعه با هم هم‌پوشانی ندارند.» کشف نمی‌شود.

در حال حاضر شناخت عمومی از بحران تکرارپذیری در علم وجود دارد. می‌توانم با جرأت بگویم که بخش بزرگی از آن ناشی از استفاده از تکنیک‌های یادگیری ماشین است.

این «بحران تکرارپذیری» در علم به تعداد نگران‌کننده‌ای از نتایج‌ پژوهش‌ها اشاره دارد که زمانی‌که گروه دیگری از دانشمندان آزمایش مشابهی را انجام دادند، این نتایج تکرار نشدند. این بدین معنا است که نتایج اولیه اشتباه بودند. یک تحلیل نشان داد که تا ۸۵ درصد از تمام پژوهش‌های زیست‌پزشکی انجام‌شده در دنیا، درواقع تلاش‌های بیهوده بوده‌اند.

این موضوع یک بحران است که برای دو دهه رشد پیدا کرده و دلیلش این است که آزمایش‌ها به‌اندازه کافی خوب طراحی نشده‌اند تا اطمینان حاصل شود دانشمندان خود را فریب نمی‌دهند تا آنچه را که می‌خواهند در نتایج ببینند.

الگوهای ناقص

طبق گفته دکتر آلن، سیستم‌های یادگیری ماشین و استفاده از مجموعه کلان‌داده‌ها باعث سرعت بخشیدن به رشد این بحران شده است. دلیل این است که الگوریتم‌های یادگیری ماشین برای پیدا کردن الگوهای جالب در مجموعه‌ داده‌ها توسعه داده شدند و بنابراین وقتی که این الگوریتم‌ها در مجموعه‌ی بزرگی از داده‌ها جست‌وجو می‌کنند، آن‌ها ناچاراً یک الگو خواهند یافت.

دکتر آلن به BBC گفت:

چالش اصلی این است که آیا ما می‌توانیم به این یافته‌ها اعتماد کنیم؟ آیا این یافته‌ها واقعا نشان‌دهنده‌ی علم هستند؟ آیا تکرارپذیر هستند؟ اگر ما یک مجموعه داده‌ی دیگر داشته باشیم، باز هم همین یافته‌ها یا اصل را در همان مجموعه‌ داده می‌بینیم؟ و متأسفانه بیشتر اوقات جواب این است: احتمالاً نه.

دکتر آلن با گروهی از پژوهشگران زیست‌پزشکی در کالج پزشکی بیلور در هیوستون به‌منظور بهبود قابلیت اعتماد نتایج پژوهش این گروه کار می‌کند. او در حال توسعه‌ی نسل بعدی یادگیری ماشین و تکنیک‌های آماری است که نه‌تنها می‌تواند ازطریق مجموعه کلان‌داده‌ها به جست‌وجو بپردازد، بلکه همچنین عدم قطعیت نتایج و احتمال تکرارپذیری آن‌ها را نیز گزارش می‌دهد.

او در ادامه گفت:

جمع‌آوری مجموعه داده‌های بسیار بزرگ بسیار پرهزینه است. و من به دانشمندان می‌گویم که با این نرم‌افزار کار می‌کنم و ممکن است زمان زیادی ببرد تا شما بتوانید نتایج را با استفاده از این روش منتشر کنید، ولی درنهایت نتایج شما از آزمون زمان سربلند بیرون خواهد آمد.

این روش پول دانشمندان را ذخیره می‌کند و همچنین برای پیشرفت علم مهم است زیرا از پیمودن مسیرهای احتمالاً اشتباه توسط دانشمندان جلوگیری می‌کند.

 

اخبار شبکه های کامپیوتری، شبکه های کامپیوتری، نصب و راه اندازی شبکه های کامپیوتری، پشتیبانی شبکه های کامپیوتری، خدمات شبکه، شرکت نصب و راه اندازی شبکه های کامپیوتری، نصب شبکه، راه اندازی شبکه، پشتیبانی شبکه، فروش سوئیچ سیسکو، فروش سرور اچ پی، سوئیچ 2960 سیسکولینک فروش سوئیچ های سیسکو 

خدمات شبکه , نصب و راه اندازی شبکه , سرور , پشتیبانی شبکه , راه اندازی شبکه , اجرای شبکه , فروش تجهیزات شبکه , قرارداد پشتیبانی شبکه , راه اندازی اتاق سرور , راه اندازی سرور روم , اجرای زیرساخت شبکه ,

اشتراک :