به دست آوردن اطلاعات پوشش گیاهی با استفاده از هوش مصنوعی

تصاویر هوایی جزو ارزشمندی از کشاورزی است که اطلاعات مهمی در مورد سلامت محصولات و عملکرد به کشاورزان ارائه می دهد اما این تصاویر معمولاً با یک دوربین گران قیمت چند طیفی متصل به یک پهپاد به دست می ‌آیند.

به گزارش سیناپرس، اما یک مطالعه جدید از دانشگاه ایلینویز و دانشگاه ایالتی می سی سی پی نشان می دهد: تصاویر یک دوربین استاندارد قرمز-سبز-آبی (RGB) همراه با یادگیری عمیق هوش مصنوعی می تواند پیش بینی اطلاعات را در کسری از هزینه ارائه دهد.

دوربین‌های چند طیفی نقشه ‌های رنگی ارائه می ‌دهد که پوشش گیاهی را نشان می ‌دهد تا به کشاورزان کمک کند تا سلامت گیاهان را نظارت کرده و مناطق مشکل‌دار را شناسایی کنند. شاخص‌های گیاهی مانند شاخص تفاوت گیاهی (NDVI) و شاخص تفاوت لبه قرمز (NDRE) مناطق سالم را سبز نشان می ‌دهند، در حالی که مناطق مشکل دار به رنگ قرمز نشان داده می‌ شوند.

به گزارش سیناپرس، معمولاً برای انجام این کار به یک دوربین مادون قرمز (NIR) ۵ هزار دلاری نیاز است. اما محققان این مطالعات نشان دادند که می توان با استفاده از یک دوربین رنگی معمولی متصل به یک پهپاد ارزان قیمت، هوش مصنوعی را برای تولید تصاویر مشابه شاخص های گیاهی آموزش داد.

گیریش چودری (Girish Chowdhary) دانشیار گروه مهندسی کشاورزی و بیولوژیکی در دانشگاه ایلینویز و یکی از محققان این مطالعه می گوید: این عامل هزینه را به میزان قابل توجهی کاهش می دهد.

برای این مطالعه، تیم تحقیقاتی تصاویر هوایی را از مزارع ذرت، سویا و پنبه در مراحل مختلف رشد با دوربین چند طیفی و دوربیم معمولی جمع آوری کردند. آنها از یک شبکه عصبی طراحی شده برای تبدیل تصویر به نام Pix2Pix برای ترجمه تصاویر دوربین رنگی به نقشه های رنگی شاخص های گیاهی با مناطق قرمز و سبز استفاده کردند. پس از آموزش شبکه با تعداد زیادی از تصاویر چند طیفی و معمولی، محققان توانایی آن را برای تولید تصاویر شاخص ها از مجموعه دیگری از تصاویر معمولی آزمایش کردند.

چودری در این باره می گوید: یک شاخص سبزی بازتابنده در عکس‌ها وجود دارد که نشان ‌دهنده کارایی فتوسنتز است. این شاخص کمی در کانال سبز و مقدار زیادی در کانال نزدیک به فروسرخ منعکس می ‌شود. اما ما شبکه‌ ای ایجاد کرده ‌ایم که می ‌تواند آن را از کانال سبز استخراج کند. این موضوع بدان معناست که ما فقط به کانال سبز، همراه با سایر اطلاعات زمینه ای مانند پیکسل های قرمز، آبی و سبز نیاز داریم.

برای آزمایش دقت تصاویر تولید شده توسط هوش مصنوعی، محققان از گروهی از متخصصان محصولات کشاورزی خواستند تا تصاویری از همان مناطق را که توسط هوش مصنوعی تولید شده یا با دوربین چندطیفی گرفته شده اند، در کنار هم مشاهده کنند.

جالب اینجاست که کارشناسان هیچ تفاوت قابل مشاهده ای بین این دو مجموعه عکس پیدا نکردند که نشان می دهد هر دو عامل پیش بینی مشابهی خواهند داشت. تیم تحقیقاتی همچنین مقایسه تصاویر را از طریق روش های آماری آزمایش کرد و تأیید کرد که عملاً هیچ تفاوت قابل اندازه گیری بین آنها وجود ندارد.

به گزارش سیناپرس، شرح کامل این مطالعه در مجله تخصصی Computers and Electronics in Agriculture منتشر شده است.

مترجم: ندا اظهری

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا