• 1404/01/26 - 07:40
  • بازدید: 95
  • زمان مطالعه : 7 دقیقه
پروفسور داریوش فرهود:

بدون در نظرگیری ملاحظات اخلاقی، قادر به کنترل هوش مصنوعی نیستیم

پروفسور داریوش فرهود، با قدردانی از دانشگاه علوم پزشکی هوشمند، برای برگزاری «دومین کنگره بین المللی هوش مصنوعی» که ۲۴ تا ۲۶ اردیبهشت ماه 1404، در مرکز همایش های بین المللی ایران(نورالرضا) در تهران برگزار می شود، ابراز امیدواری کرد که این رویداد بتواند، زمینه هم اندیشی متخصصانی که در حوزه های پزشکی و هوش مصنوعی به فعالیت مشغول هستند، فراهم آورده تا بتوانند، بستر توسعه این دانش را در حوزه علوم پزشکی در کشور بیش از پیش فراهم آورند.

 

روابط عمومی دانشگاه علوم پزشکی هوشمند-پروفسور داریوش فرهود، عضو کمیته «اخلاق در ژنتیک پزشکی» سازمان جهانی بهداشت اظهار داشت: اطلاعات ارائه شده به هوش مصنوعی می بایست، برپایه اصول اخلاقی باشد در غیر این صورت قادر به کنترل این پدیده نوین نخواهیم بود و این امر زنگ خطری برای بشریت به شمار می رود.

پروفسور داریوش فرهود در جریان برپایی «سومین پیش رویداد کنگره بین المللی هوش مصنوعی در علوم پزشکی»  که امروز، ۲۶ فروردین ماه 1404 در محل «دانشگاه علوم پزشکی هوشمند» در حال برگزاری است، با اعلام این مطلب افزود: به دلیل آنکه هوش مصنوعی بر اساس اطلاعاتی که به آن می دهیم، به ما پاسخ می دهد، گام اول در ارایه داده ها به آن، اطمینان پیدا کردن از درستی اطلاعاتی است که به آن وارد می شود، به عبارتی دیگر باید مطمئن شویم که این اطلاعات، صحیح و اخلاقی باشد.

وی تاکید کرد: مهم این است که انسان، هوش مصنوعی را با چه داده هایی تغذیه می کند؛ برای مثال وقتی نتایج یک تحقیق دارای سوء گیری خاص حتی اگر به چاپ هم رسیده باشد، به هوش مصنوعی وارد می شود، وقتی از هوش مصنوعی در این زمینه سوال می شود، همان داده ها را تحویل می دهد؛ بنابراین باید هم در مورد ارایه اطلاعات به هوش مصنوعی و هم در اعتبار مطالب استخراج شده از آن، دقت لازم را انجام دهیم. 

 

  • چالش های اخلاقی هوش مصنوعی

پروفسور فرهود با اشاره به اینکه هوش مصنوعی تنها محدود به آنچه در حال حاضر بین مردم رایج شده است، نیست، تصریح کرد: بر اساس گزارش های رسیده روزانه ۲۰ تا ۲۲ سامانه هوش مصنوعی جدید وارد بازار می شود و اینها بر اساس صدها میلیون داده و اطلاعات الگوریتم هایی است که در هوش مصنوعی بر اساس مقالات، نوشته ها و سندهای منتشر شده وجود دارد.

وی یادآور شد: زمانی که می خواهیم از هوش مصنوعی سوال کنیم، نکته مهم آن است که اساسا این سوال به چه منظور است ؟ در واقع ضروری است که سوالات ما اخلاقی باشد. همچنین مهم است که مورد استفاده آن هم، اخلاقی باشد. یعنی حالا که جواب را از هوش مصنوعی گرفته ایم، می خواهیم، برای چه هدف و منظوری از آن داده ها، استفاده کنیم.

عضو کمیته «اخلاق در ژنتیک پزشکی»سازمان جهانی بهداشت ادامه داد: اگر قرار باشد که انسان ها تحقیقات، ایده ها، کتاب ها، مقالات و غیره را بدون رعایت اخلاقیات، به هوش مصنوعی بدهند، از آنجا که این مطالب به صورت داده ها در هوش مصنوعی در گردش هستند، این مطالب دوباره به ما بر می گردد.

وی چالش دیگر کار با هوش مصنوعی را در زمینه حقوق پدید آوردنده اثر یا همان مولف برشمرد و اظهار داشت: زمانی که یک نویسنده از هوش مصنوعی سوالی می کند یا مقاله‌اش را برای تصحیح به هوش مصنوعی می دهد، اگر چه هوش مصنوعی مقاله را تصحیح می‌کند، اما از آنجایی که مقاله وارد بخش اطلاعات هوش مصنوعی می شود، دیگر نویسنده اولیه صاحب اثر نیست. به عبارتی، اگر فرد دیگری در این زمینه مطلبی را جست و جو کند، به محتویات آن مقاله دسترسی  پیدا خواهد کرد و این طور به نظر می رسد که مقاله از پیش منتشر شده است، در حالی که محقق تنها قصد تصحیح مقاله را داشته است.

پروفسور فرهود افزود: این مساله بیانگر آن است که هوش مصنوعی تا چه اندازه می تواند، مانند یک کلاف سردرگم عمل کند؛ این در حالیست که هوش مصنوعی به سرعت و به شکل انفجاری در حال پیشروی بوده که این مسایل جزو مسایل چالش بر انگیز این پدیده نوین محسوب می شود.

وی همچنین یکی از خطرات هوش مصنوعی را تصمیم گیری به جای انسان و حذف خلاقیت و تفکر برشمرد و یادآور شد: هوش مصنوعی مانند سایر عرصه های تکنولوژی به قدری با سرعت در حال پیشروی است که دانشمندان قادر نیستند، مسایل اخلاقی را در این مورد اعمال کنند. اما  اخلاقمند بودن مصرف کننده و افرادی که هوش مصنوعی را بوجود می آورند، خود آغاز اجرای اخلاقیات در ارتباط با این پدیده نوین است؛ در غیر این صورت در آینده هیچ کنترلی روی هوش مصنوعی نخواهیم داشت.

 

  • هوش مصنوعی و تغییر باورها و نگرش

عضو کمیته «اخلاق در ژنتیک پزشکی»سازمان جهانی بهداشت با اشاره به اینکه هوش مصنوعی تا جایی پیش رفته که حتی باورها را تغییر داده است، گفت: در برخی از کشورها  گروه های «دیتا ایسم» بوجود آمده اند که داده ها را پرستش می کنند. آنها بر این باورند که چیزهایی را که تاکنون از خدا می خواسته اند از این پس می توانند از هوش مصنوعی بخواهند. این مسائل بیانگر آن است که هوش مصنوعی تا چه عرصه هایی پیش رفته  تا آنجا که در حال برهم ریختن باورها و تغییر نگرش در برخی از افراد است.

 

  • نظریه نقش هوش مصنوعی در جلوگیری از تکامل بشریت

پروفسور فرهود گفت: یکی از پرسش های پیش روی بشر این است که با وجود هوش مصنوعی، انسان فعلی در ۵۰۰ هزار سال آینده چه تغییراتی خواهد کرد؟ این در حالیست که به اعتقاد برخی، هوش مصنوعی ممکن است، به طور کلی باعث حذف انسان شود.

وی در تشریح این نظریه با اشاره به تاریخ تکامل انسان گفت: اولین میمون ها حدود پنج میلیون سال پیش پدید آمدند؛ اما تغییراتی که از انسان نئاندرتال به انسان امروزی رخ داده، ۴۰۰ هزار سال طول کشیده و در حال حاضر هوش مصنوعی این تغییرات را بسیار شتاب بخشیده است.

عضو کمیته «اخلاق در ژنتیک پزشکی»سازمان جهانی بهداشت ادامه داد: به باور برخی، هوش مصنوعی نخواهد گذاشت که تکامل انسان به ۵۰۰ هزار سال برسد. همچنین به باور این گروه، هوش مصنوعی در آینده در برابر انسان مدعی خواهد شد. اما در مورد زمان این اتفاق اختلاف نظر وجود دارد و برخی این زمان را ۱۰۰ هزار سال و برخی دیگر ۵۰ هزار سال آینده پیش‌بینی می کنند.

وی خاطر نشان ساخت: در صورت پذیرش این نظریه باید به بی عدالتی که ارتباط با موضوع اخلاق دارد، اشاره کرد. به عبارتی دیگر انسان هایی که دسترسی به هوش مصنوعی دارند در آینده از بین خواهند رفت و انسان های دیگری که دسترسی ندارند، مانند اقوام بدوی که در جنگل ها ساکن هستند، باقی خواهند ماند.

پروفسور فرهود در ادامه بیان داشت: البته در حال حاضر برعکس آن، بی عدالتی برای کسانی که به هوش مصنوعی دسترسی دارند و گروهی که ندارند هم، وجود دارد. به عبارتی عده ای که به هوش مصنوعی دسترسی دارند به کمک آن و به راحتی می توانند از آن استفاده کنند. برای مثال کاری را که انسان در مناطق دور افتاده باید روزها و هفته ها روی آن زحمت بکشد، هوش مصنوعی در یک چشم به هم زدن و در حدود سی ثانیه قادر به انجام آن است.

 

  • مسئولیت اخلاقی ما در برابر هوش مصنوعی

عضو کمیته «اخلاق در ژنتیک پزشکی»سازمان جهانی بهداشت یاد آور شد: هم اکنون ما داخل یک بی عدالتی که خود نوعی بی اخلاقی است، قرار داریم. این ما هستیم به عنوان مصرف کننده از هوش مصنوعی از یک سو و از سوی دیگر به عنوان فراهم آورنده اطلاعات برای هوش مصنوعی در برابر  این پدیده نو ظهور مسئولیت داریم، زیرا بیم آن می رود که از همین اطلاعات، علیه بشریت استفاده شود.

 وی افزود: هر چند توجه به صحت اطلاعات ارائه شده به هوش مصنوعی، به ویژه استفاده از منابع صحیح اطلاعاتی و نداشتن سوء گیری از نظر اخلاقی، بسیار حایز اهمیت است، اما نباید این نکته را فراموش کرد که ما هم اینک در ارتباط با هوش مصنوعی درآغاز راه قرار داریم؛ به عبارتی دیگر اگر چهار یا پنج سال دیگر بخواهیم در مورد هوش مصنوعی و اخلاق صحبت کنیم، مسلما حرف های دیگری خواهیم داشت که امروزه باور آن برای ما دشوار است.

پروفسور فرهود در پایان با قدردانی از دانشگاه علوم پزشکی هوشمند، برای برگزاری «دومین کنگره بین المللی هوش مصنوعی» که ۲۴ تا ۲۶ اردیبهشت ماه 1404، در مرکز همایش های بین المللی ایران(نورالرضا) در تهران برگزار می شود، ابراز امیدواری کرد که این رویداد بتواند، زمینه هم اندیشی متخصصانی را که در حوزه های پزشکی و در ارتباط با هوش مصنوعی به فعالیت مشغول هستند، فراهم آورده تا آنان بتوانند، بستر توسعه این دانش را در حوزه علوم پزشکی در کشور بیش از پیش فراهم آورند.

گفتنی است،پروفسور داریوش فرهود، عضو کمیته «اخلاق در ژنتیک پزشکی»سازمان جهانی بهداشت و پدر علم ژنتیک ایران امروز، سه شنبه ۲۶ فروردین ماه1404، در «سومین پیش رویداد کنگره بین المللی هوش مصنوعی» که در محل دانشگاه علوم پزشکی هوشمند در حال برگزاری است، با موضوع ملاحظات اخلاقی در استفاده از هوش مصنوعی به سخنرانی پرداخت.

  • گروه خبری : ریاست,اطلاعیه ها,روزشمار

نظرات

0 نظر برای این مطلب وجود دارد

نظر دهید