۱۰ ترند برتر هوش مصنوعی و یادگیری ماشین در سال ۲۰۲۴
در این مقاله با انواع هوش مصنوعی و یادگیری ماشین ترند در دنیا و مسیر ایجاد تحول در صنعت به وسیله آنان آشنا می شویم؛ بعد از عرضه ChatGPT در نوامبر ۲۰۲۲، سال ۲۰۲۳ تبدیل نقطه ی عطفی در زمینه هوش مصنوعی شد. پیشرفتهای سال های گذشته اساس پیشرفت های مهمی در زمینه هوش مصنوعی را فراهم کرده است. اما با وجود اینکه generative AI همچنان جذابیت فراوانی در جهان فناوری دارد، بینش افراد و سازمان ها به تدریج پیچیدهتر و بالغتر شده و سازمانها تمرکز خود را از آزمایش در زمینه AI به کاربرد آن ها در پروژههای واقعی منتقل کردهاند. ترندهای پیش بینی شده برای سال ۲۰۲۴ نمایانگر عمق و دقت بیشتر در استراتژیهای توسعه و استقرار هوش مصنوعی با توجه به موازین اخلاقی، امنیت و همچنین نمایانگر تغییر در قوانین دنیای دیجیتال است. در ادامه، ده ترند اصلی هوش مصنوعی و یادگیری ماشین برای سال ۲۰۲۴ ارائه شده است :
۱. AI Multimodal (هوش مصنوعی چندحالته)
هوش مصنوعی چندحالته به معنای پردازش دادههای متنی، تصویری، و صوتی به صورت همزمان و پیشرفتهتر از پردازش دادههای تک حالته میباشد. این نوع از هوش مصنوعی به دنبال تقلید از تواناییهای انسان در پردازش اطلاعات حسی متنوع میرود. در کنفرانس MIT EmTech در نوامبر ۲۰۲۳، مارک چن، یکی از مدیران OpenAI، اشاره کرد که میخواهند مدلهای هوش مصنوعی توانایی درک دادههای تصویری و صوتی را پیدا کرده و بتوانند به اطلاعات (دادهها) چندحالته وارد شده به آنها پاسخ دهند. این امکان در مدل GPT-4 فراهم شده است. مارک چن در سخنرانی خود، مثالی از تواناییهای GPT-4 در پردازش ورودیهای چندحالته میزند که در آن تصویری از داخل یخچال گرفته شده است و از ChatGPT خواسته میشود که بر اساس مواد موجود در یخچال یک دستور غذایی پیشنهاد دهد. در اینجا حتی میتوانیم به صورت صوتی از ChatGPT درخواست کنیم که به ما دستور پخت غذا را پیشنهاد دهد که در این صورت توانایی پردازش صدا و تصویر را همزمان استفاده کردهایم.
اگرچه بیشتر طرحهای هوش مصنوعی تولیدی امروزه بر مبنای متن هستند، اما قدرت واقعی هوش مصنوعی زمانی آشکار خواهد شد که بتوانید متن و مکالمه را با تصاویر و ویدیوها و… ترکیب کنید و آنها را در طیف وسیعی از کسب وکارها به کار ببرید. این موضوع را مت برینگتون، رهبر فناوری در شرکت EY اظهار کرده است. کاربردهای هوش مصنوعی چندحالته متنوع و در حال گسترش است. به عنوان مثال، در حوزه بهداشت، مدلهای چندحالته میتوانند تصاویر پزشکی را با توجه به سابقه بیمار و اطلاعات ژنتیکی اش برای بهبود دقت تشخیص، تحلیل و پردازش کنند. علاوه بر آن، به منظور بهبود عملکرد شغلی افراد، مدلهای چندحالته میتوانند توانمندیهای کدنویسی اولیه را به افرادی که تجربهای در این زمینه ندارند، آموزش داده و از طریق ارتقاء سطح دانش و مهارتهای نیروی کار منجر به بهبود عملکرد سازمانی شود.
همچنین، با ارائه دادههای جدید به مدلهای هوش مصنوعی، قابلیتهای چندحالته آنها بهبود مییابد. چن توضیح میدهد: “مدلهای ما در فرآیند مدلسازی زبان بهبود مییابند و به تدریج محدودیتهایی که در یادگیری زبان دارند را پشت سر میگذارند، ما میخواهیم تا اطلاعات و دادههای دنیای واقعی را به این مدلها ارائه دهیم تا بتوانند به تنهایی دنیای اطراف خود را درک کرده و آن را تفسیر نمایند.”
۲. AI Agentic
هوش مصنوعی Agentic نمایانگر تغییر مهمی از هوش مصنوعی واکنشی به هوش مصنوعی فعال است. AI Agentic سیستمهای پیشرفتهای هستند که توانایی مستقل عمل کردن دارند. به این معنا که برخلاف سیستمهای هوش مصنوعی سنتی که اصول به ورودیهای کاربر پاسخ میدهند و از برنامهریزی از پیش تعیینشده استفاده میکنند، AI Agentic به صورتی طراحی شدهاند تا محیط را درک کنند، اهداف را مشخص کنند و برای دستیابی به اهداف بدون دخالت مستقیم انسان عمل نمایند. به عنوان مثال در مانیتورینگ محیطی، AI Agentic میتواند آموزش ببیند تا دادهها را جمعآوری کند، الگوها را تحلیل کند و در پاسخ به خطراتی مانند نشانههای اولیه آتشسوزی در جنگل و… اقدامات پیشگیرانه آغاز کند. به همین ترتیب AI Agentic مالی میتواند به صورت فعال پرتفویی از سرمایهگذاری را با استفاده از استراتژیهایی که به تغییرات شرایط بازار واکنش نشان میدهند، مشخص و مدیریت کند.
پیتر نورویگ، یکی از مسئولین در دانشگاه استنفورد، میگوید سال ۲۰۲۳ سال توانایی گفتگو با هوش مصنوعی بود و در سال ۲۰۲۴ خواهیم دید که هوش مصنوعی قادر خواهد بود کارهایی مانند رزرو رستوران، برنامهریزی سفر و… را نیز انجام دهند.
۳. AI Source Open
ساخت مدلهای زبانی بزرگ و سایر سیستمهای قدرتمند هوش مصنوعی هزینههای زیادی را در بر دارد زیرا در این پروسه به تعداد بسیار زیادی کامپیوتر و داده نیاز است. اما استفاده از یک مدل Open Source به توسعهدهندگان این امکان را میدهد که کار و مسیر دیگر توسعهدهندگان را ادامه داده و با این کار هزینههای اولیه را کاهش دهند و دسترسی به هوش مصنوعی را گسترش دهند. هوش مصنوعی Source Open معمولاً به صورت رایگان در دسترس است و این امکان را به سازمانها و پژوهشگران میدهد تا در توسعهی کدهای موجود مشارکت داشته و همکاری کنند.
دادههای GitHub از سال گذشته نشان میدهد که تعامل توسعهدهندگان با هوش مصنوعی، به ویژه هوش مصنوعی تولیدی، افزایش چشمگیری داشته است. برینگتون گفت: “این موضوع به افراد امکان دسترسی آسان و نسبتاً دموکراتیک را میدهد و برای تجربه و کاوش عالی است.” رویکردهای AI Source Open همچنین میتواند شفافیت و اخلاقیات را تشویق کند زیرا هنگامی که افراد بیشتری امکان مشاهده و استفاده از کدها را دارند، احتمال بیشتری برای شناسایی اگاهیها و آسیبپذیریهای امنیتی و… وجود دارد. اما سوی دیگر، متخصصان نگرانیهایی نیز در مورد سوءاستفاده از هوش مصنوعی Source Open برای تولید اطلاعات نادرست و سایر محتواهای مضر ابراز داشتهاند. علاوه بر این، ساخت و حفظ منابع Source Open حتی برای نرمافزارهای سنتی، سخت است چه برسد به مدلهای هوش مصنوعی پیچیده و محاسباتی.
۴. Generation Retrieval-augmented (RAG)
اگرچه ابزارهای هوش مصنوعی تولیدی در سال ۲۰۲۳ به طور گستردهای پذیرفته و مورد استفاده قرار گرفتهاند، اما همچنان با مشکل توهمزایی مواجه هستند. برای مثال، پاسخهایی به نظر معقول اما نادرست به پرسشهای کاربران بسیار شایع است که این موضوع یک مانع بزرگ برای پذیرش هوش مصنوعی در سطح سازمانها ایجاد کرده است. مثالی از این مشکل در جایی است که توهم و اطلاعات نادرست
در سناریوهای کسب و کار یا مواجهه با مشتری میتواند فاجعهبار باشد. RAG به عنوان تکنیکی برای کاهش توهمات ایجاد شده است که پیامدهای بالقوهای برای پذیرش هوش مصنوعی سازمانی خواهد داشت.
RAG ترکیبی از تولید متن به همراه بازیابی اطلاعات است که دقت و ارتباط محتوای تولیدی توسط هوش مصنوعی را افزایش میدهد. این موضوع به مدلهای زبانی بزرگ کمک میکند که به اطلاعات خارجی دسترسی پیدا کنند و به تولید پاسخهای عمیقتر و با زمینه محتوایی دقیقتر بپردازند. این مزایا به ویژه برای سازمانهایی جذاب هستند که دانش واقعی و بهروز برای کسب و کار آنان بسیار حیاتی است. این شرکتها میتوانند از RAG با مدلهای اصلی استفاده کنند تا چتباتها و دستیارهای مجازی موثرتر و با اطلاعاتی دقیقتر در اختیار داشته باشند.
۵. models AI generative enterprise Customized
مدلهای هوش مصنوعی سفارشیسازی شده برای شرکتها به عنوان ابزارهای عمومی بزرگتر مورد توجه قرار گرفتهاند، مانند Midjourney و ChatGPT، که بیشترین توجه را از مصرفکنندگان در حال استفاده از هوش مصنوعی تولیدی دریافت کردهاند. اما برای بهبود عملکرد هوش مصنوعی در امور تجاری، مدلهای کوچک و مخصوص به یک حوزه خاص احتمالاً بیشترین کاربرد را خواهند داشت و به همین دلیل تقاضای زیادی برای سیستمهای هوش مصنوعی با توانایی پاسخگویی به نیازهای ویژه وجود دارد.
استفاده از مدلهای هوش مصنوعی سفارشیسازی شده نیاز به منابع مالی و اطلاعات زیادی دارد که برای بسیاری از سازمانها قابل دسترسی نیست. برای استفاده از هوش مصنوعی تولیدی سفارشی، بیشتر سازمانها به جای ایجاد یک مدل جدید از پایه، فقط مدلهای موجود را با تغییراتی در ساختار یا تنظیمات بر روی مجموعه دادههای مخصوص به یک حوزه، تغییر میدهند.
Workday به عنوان یکی از مثالها، در حال بهینهسازی مدلهای هوش مصنوعی خود است تا بتواند توانمندیهای مشابهی را برای مدلهای کوچکتر و متمرکزتر که به راحتی مدیریت میشوند، ایجاد کند. این امکان به سازمانها اجازه میدهد که بهینهتر به نیازها و متقاضیان پاسخ دهند.
مدلهای هوش مصنوعی سفارشیسازی شده قادر به ارائه راهحلهای متنوعی برای تقریباً هر سناریوی کسب و کاری هستند، از پشتیبانی مشتری تا مدیریت زنجیره تأمین و بررسی اسناد و موارد دیگر. این مسئله به خصوص در صنایعی با زبانها و روشهای تخصصی مانند بهداشت، مالی و حقوقی بسیار اهمیت دارد.
همچنین، ساخت یک مدل سفارشی به جای استفاده از ابزارهای عمومی، به حفظ حریم خصوصی و امنیت کمک میکند، زیرا به سازمانها کنترل بیشتری بر روی دادههای خود میدهد. به عنوان مثال، در صورت ساختن یک مدل برای کارهای Workday که شامل دادههای حساس فردی مانند تاریخچه سلامت است، سازمان نمیخواهد این نوع دادهها را به اشخاص ثالث انتقال دهد و مشتریان نیز معمولاً نگران انتشار آنها هستند.
با توجه به اهمیت حریم خصوصی، قوانین سختگیرانهتری در زمینه هوش مصنوعی در آینده ممکن است سازمانها را به تمرکز بیشتر بر مدلهای خاص و سفارشی ترغیب کنند، به جای تمرکز بر مدلهای زبانی بزرگ که با دادههایی از سرتاسر اینترنت آموزش دیدهاند. Gillian Crossan، مشاور اصلی در زمینه ریسک و رهبر بخش فناوری جهانی در Deloitte، این موضوع را توضیح داده و اظهار کرده که این انتقال به مدلهای خصوصی و متعلق به یک حوزه خاص، از مشتریان نگرانی بیشتری در مورد انتشار دادهها جلب میکند.
۶. talent learning machine and AI for Need (نیاز در بکارگیری استعدادها در زمینه هوش مصنوعی و یادگیری ماشین)
طراحی، آموزش و آزمایش یک مدل یادگیری ماشین کار سادهای نیست، چه برسد به رساندن این مدلها به مرحلهای که به تولید و نگهداری دادهها در یک محیط پیچیده سازمانی بپردازند. بنابراین نیاز رو به رشد به استخدام استعدادها در زمینه هوش مصنوعی و یادگیری ماشین در سال ۲۰۲۴ و بعد از آن پیشبینی میشود. به ویژه، با ادغام شدن هوش مصنوعی و یادگیری ماشین در عملیات تجاری شرکتها، نیاز روزافزون به متخصصانی وجود دارد که بتوانند شکاف بین تئوری و عمل را پر کنند. این امر مستلزم آن است که توانایی استقرار، نظارت و نگهداری سیستمهای هوش مصنوعی را داشته باشند. به طور خلاصه، عملیات یادگیری ماشین رشتهای از تخصصهاست که به انجام این فرایندها میپردازند و این حرفه را معمولاً به نام MLOps، کوتاه شدهی عبارت عملیات یادگیری ماشین، نمایش میدهند. در سال ۲۰۲۴، انتظار میرود که سازمانها (نه فقط شرکتهای فناوری بزرگ) به دنبال استخدام استعدادهایی با این نوع مهارتها باشند. با توجه به اینکه فناوری اطلاعات و داده در تقریباً تمام عملیات تجاری کسب و کارها حاضر است و پروژههای هوش مصنوعی به محبوبیت بالایی دست یافتهاند، ایجاد و افزایش تواناییهای داخلی سازمانها در زمینه هوش مصنوعی و یادگیری ماشین مرحلهی بعدی در تحولات دنیای دیجیتال خواهد بود.
۷. AI Shadow
زمانی که نیروی کار در هنگام انجام وظایف شغلی خود به هوش مصنوعی تولیدی علاقه نشان میدهند، سازمانها با مسئله AI Shadow روبرو میشوند که در واقع استفاده از هوش مصنوعی در سازمان بدون تأیید رسمی یا نظارت از سوی دپارتمان IT است. این ترند به عنوان AI Shadow به تدریج رواج مییابد زیرا هوش مصنوعی دسترسی آسان به اطلاعات را برای مردم فراهم میکند و حتی افراد غیرفنی را قادر میسازد که به صورت مستقل از آن استفاده کنند. AI Shadow معمولاً زمانی بوجود میآید که کارکنان به راهحلهای سریع برای حل یک مشکل نیاز دارند یا میخواهند به سرعت تکنولوژیهای جدید را بررسی کنند و این کار را بدون دریافت مجوزهای رسمی و تایید و نظارت از سوی دپارتمان IT انجام میدهند. این موضوع به ویژه برای رباتهای چت (chatbots)، هوش مصنوعی شایع است زیرا که کارکنان میتوانند آنها را به سادگی در مرورگرهای وب خود استفاده کنند – بدون اینکه از فرآیندهای بررسی و تأیید IT عبور کنند. این کار همچنین با خطراتی همراه است به عنوان مثال، یک کاربر ممکن است اطلاعات محرمانه تجاری را به یک مدل زبانی معمولی و عمومی وارد کند بدون اینکه دریابد که این کار اطلاعات حساس را در برابر اشخاص دیگری نیز قرار میدهد.
در سال ۲۰۲۴، سازمانها باید اقداماتی را برای مدیریت AI Shadow انجام دهند که از طریق چارچوبهای حاکمیتی تعادل بین حمایت از نوآوری و حفاظت از حریم خصوصی و امنیت را برقرار کند. این موضوع ممکن است شامل تعیین سیاستهای مشخص برای استفاده از هوش مصنوعی و ارائه پلتفرمهای تایید شده و همچنین تشویق به همکاری بین IT و رهبران کسب و کارها تا در بهترین شکل از چگونگی استفادهی ادارات مختلف از هوش مصنوعی داشته باشند.
برینگتون با ارجاع به تحقیقات اخیر EY که در آن ۹۰٪ از پاسخدهندگان استفاده از هوش مصنوعی را در محیط کار تایید کردند، میگوید: “واقعیت این است که همه از آن استفاده میکنند؛ وی در ادامه میگوید: بخواهید یا نخواهید، مردم امروز از هوش مصنوعی استفاده میکنند، بنابراین باید به دنبال فهم بهتر مدلها و استفاده از آنها به صورت اخلاقی و مسئولانه باشیم.
۸. A Generative AI Reality Check (بررسی واقعیت هوش مصنوعی تولیدی)
هنگامی که سازمانها از هیجان اولیه پیرامون استفاده از هوش مصنوعی تولیدی به سمت درک واقعیات مربوط به آن پیش میروند، با مرحلهای که اغلب به عنوان “محل ناامیدی” در چرخههای پارتنر گارتنر یاد میشود، مواجه میشوند. با کم شدن هیجان اولیه، سازمانها با محدودیتها و مشکلاتی مانند پایین بودن کیفیت خروجیها، مسائل امنیتی، اخلاقی، مشکلات ادغام با سایر سیستمها و فرآیندهای موجود روبرو میشوند. همچنین وظایفی مانند تضمین کیفیت داده، آموزش مدلها و حفظ سیستمهای هوش مصنوعی در تولید معمول دشوارتر از انتظارات اولیه است. نکته مثبت این است که این مشکلات، اگرچه در کوتاه مدت ناخوشایند هستند، ممکن است در طولانی مدت منجر به نگرشی سالمتر و معتدلتر نسبت به استفاده از هوش مصنوعی شوند. عبور از این مرحله نیاز به تعیین انتظارات واقعی از هوش مصنوعی دارد و باید درک جامعتری از اینکه هوش مصنوعی چه کارهایی را میتواند انجام دهد و از عهده چه کارهایی برنمیآید داشت.
۹. Increased attention to AI ethics and security risks (افزایش توجه به اخلاقیات و مخاطرات امنیتی هوش مصنوعی)
تکثیر deepfake و محتوای پیچیده تولید شده توسط هوش مصنوعی نگرانیهایی را در مورد امکان انتشار اطلاعات غلط و دستکاری در رسانهها، سیاستها، جعل هویت و انواع دیگر کالهبرداری افزایش میدهد. هوش مصنوعی همچنین میتواند حملات ransomware و phishing را افزایش دهد و آنها را متقاعدکنندهتر، سازگارتر و شناسایی آنها را سختتر کند. اگرچه تلاشهایی بسیاری برای توسعه فناوریها در جهت شناسایی محتوای تولید شده توسط هوش مصنوعی در حال انجام است، اما این کار همچنان دشوار و با مشکلاتی مواجه است. دور زدن تکنیکهای واترمارک هوش مصنوعی فعلی نسبتاً آسان است و نرمافزارهای تشخیص هوش مصنوعی مستعد تشخیص نتایج کاذب میباشد.
۱۰. Evolving AI regulation (تکامل هوش مصنوعی)
بدون شک، با توجه به نگرانیهایی که از مطالبات اخلاقی و امنیتی در مورد استفاده از هوش مصنوعی وجود دارد، سال ۲۰۲۴ را باید یک سال محوری برای بازتنظیم قوانین هوش مصنوعی، سیاستها و چارچوبهای صنعتی که به سرعت در ایالات متحده و در سطح جهان در حال تحول هستند، در نظر گرفت. قانون هوش مصنوعی اتحادیه اروپا، که اعضای پارلمان و شورای اتحادیه اروپا اخیراً در مورد آن به توافق موقت دست یافتند، اولین قانون جامع هوش مصنوعی در جهان را نشان میدهد و در صورت تصویب این قانون، استفادههای خاصی از هوش مصنوعی ممنوع میشود و نیز تعهداتی را بر توسعه دهندگان سیستمهای هوش مصنوعی پرخطر تحمیل میکند و عدم رعایت آن منجر به جریمههای چند میلیون دلاری میشود. قانون هوش مصنوعی میتواند اتحادیه اروپا را به عنوان یک تنظیمکننده جهانی هوش مصنوعی مطرح کند که ممکن است استفاده و استانداردهای توسعه هوش مصنوعی جهانی را تحت تأثیر قرار دهد.
فراتر از اثرات سیاستهای اتحادیه اروپا، فعالیتهای اخیر در ایالات متحده نشان میدهد که چگونه مقررات هوش مصنوعی میتواند متحول و اجرا شود. فرمان اجرایی رئیس جمهور جو بایدن در اکتبر، دستورات جدیدی را ایجاد کرد مانند الزام توسعه دهندگان هوش مصنوعی به اشتراکگذاری نتایج تست ایمنی با دولت ایالات متحده و همچنین اعمال محدودیتهایی برای محافظت در برابر خطرات هوش مصنوعی. آژانسهای مختلف فدرال نیز دستورالعملهایی را به بخشهای خاصی صادر کردهاند مانند چارچوبی برای مدیریت ریسک هوش مصنوعی NIST و بیانیه کمیسیون تجارت فدرال که به کسب و کارها نسبت به ادعاهای نادرست در مورد استفاده از هوش مصنوعی در محصولاتشان هشدار میدهد. در پایان، مسائل پیچیدهتری نیز در سال ۲۰۲۴ وجود خواهد داشت که سال انتخابات در ایالات متحده است و فهرست فعلی نامزدهای ریاست جمهوری آمریکا طیف گستردهای از مواضع را پیرامون مسائل مرتبط با سیاستهای فناوری نشان میدهد. یک دولت جدید میتواند رویکرد نظارت بر هوش مصنوعی را از طریق تغییر یا بازنگری فرمان اجرایی بایدن و دستورالعملهای فدرال تغییر دهد و از الزامات محدودکننده موجود بکاهد یا بر آن بیفزاید.
سلام، این یک دیدگاه است.
برای شروع مدیریت، ویرایش و پاک کردن دیدگاهها، لطفا بخش دیدگاهها در پیشخوان را ببینید.
تصاویر نویسندگان دیدگاه از Gravatar گرفته میشود.