پونیشا

لیست پروژه‌های Web Scraping

تعداد یافته ها:229 پروژه

پروژه‌های Web Scraping


Web Scraping
تعداد یافته ها: 229 پروژه
مرتب سازی بر اساس

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
متمایز
حرفه‌ای
تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

عنوان پروژه: تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

توضیحات پروژه: هدف این پروژه توسعه یک سیستم کاملاً خودکار است که قابلیت‌های تولید، دسته‌بندی و انتشار محتوای مرتبط با فعالیت‌های سایت شرکت را به صورت روزانه دارد. این سیستم بر روی تکنولوژی‌های ن8n برای مدیریت جریان کار، هوش مصنوعی برای تولید متن و تصویر و پایگاه داده برای ذخیره و مدیریت محتوا مبتنی خواهد بود. محتوا به صورت همزمان در وب‌سایت وردپرسی و شبکه‌های اجتماعی (از جمله اینستاگرام، یوتیوب وپیام رسان خارجی) منتشر خواهد شد و لازم است تا کاملاً جذاب و انسانی باشد.

ویژگی‌ها و عملکرد مورد انتظار:

  • ورودی و منابع داده:

    • اتصال به حداقل ۳ مدل هوش مصنوعی برای تولید متن و تصویر.
    • تحلیل موضوعات و جمع‌آوری داده‌ها از منابع مرتبط.
    • پایگاه داده مرکزی برای ذخیره و مدیریت تمام محتوا.
  • اتوماسیون با n8n:

    • جمع‌آوری موضوعات و داده‌ها.
    • تولید محتوای انسانی شامل متن و تصویر.
    • دسته‌بندی محتوا مطابق با ساختار سایت وردپرسی.
    • انتشار خودکار در سایت و شبکه‌های اجتماعی.
  • تولید محتوا:

    • متن: طبیعی، جذاب، مطابق با SEO و مرتبط با حوزه فعالیت.
    • تصاویر و گرافیک: کیفیت بالا و مرتبط با محتوا، مطابق با سبک بصری برند.
    • شبکه‌های اجتماعی: کپشن‌های کوتاه و جذاب برای اینستاگرام و پیام رسان خارجی و قالب ویدئو کوتاه برای یوتیوب

ویژگی‌های فنی:

  • اتصال API به وردپرس، اینستاگرام، پیام رسان خارجی و یوتیوب.
  • قابلیت مشاهده و ویرایش محتوا قبل از انتشار.
  • امنیت و مدیریت دسترسی مناسب برای APIها و داده‌ها.
  • مقیاس‌پذیری برای افزایش حجم محتوا در آینده.

خروجی مورد انتظار:

  • انتشار روزانه محتوا در سایت و شبکه‌های اجتماعی.
  • تولید متن‌های انسانی و تصاویر حرفه‌ای آماده مصرف.
  • ارائه گزارش روزانه یا هفتگی از فعالیت‌ها و محتوای تولید شده.

مهارت‌ها و تخصص‌های مورد نیاز فریلنسر:

  • تجربه کار با n8n و طراحی و ساخت اتوماسیون.
  • توانایی کار با هوش مصنوعی برای تولید متن و تصویر (OpenAI یا مدل‌های مشابه).
  • تسلط به وردپرس و REST API آن.
  • توانایی اتصال و مدیریت APIهای شبکه‌های اجتماعی (اینستاگرام، پیام رسان خارجی، یوتیوب).
  • تجربه در طراحی پایگاه داده برای ذخیره و مدیریت محتوای تولید شده.
  • آشنایی با اصول SEO و تولید محتوا با رویکرد انسانی.

زمان‌بندی پیشنهادی:

  • فاز طراحی ۱ هفته. توجه: با توجه به نوع ثبت پروژه، ارسال شماره تماس جهت هماهنگی الزامی می‌باشد. همچنین، توضیحات و فایل‌های JSON و PDF مربوط به پروژه و توضیحات با هوش مصنوعی جهت راه‌اندازی موجود است.

با تشکر از توجه شما.
دسته‌بندی پروژه: موارد دیگر

مهارت ها:
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
هوش مصنوعی (AI)
فرصت انتخاب
پیشنهادها6

تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

عنوان پروژه: تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

توضیحات پروژه: هدف این پروژه توسعه یک سیستم کاملاً خودکار است که قابلیت‌های تولید، دسته‌بندی و انتشار محتوای مرتبط با فعالیت‌های سایت شرکت را به صورت روزانه دارد. این سیستم بر روی تکنولوژی‌های ن8n برای مدیریت جریان کار، هوش مصنوعی برای تولید متن و تصویر و پایگاه داده برای ذخیره و مدیریت محتوا مبتنی خواهد بود. محتوا به صورت همزمان در وب‌سایت وردپرسی و شبکه‌های اجتماعی (از جمله اینستاگرام، یوتیوب وپیام رسان خارجی) منتشر خواهد شد و لازم است تا کاملاً جذاب و انسانی باشد.

ویژگی‌ها و عملکرد مورد انتظار:

  • ورودی و منابع داده:

    • اتصال به حداقل ۳ مدل هوش مصنوعی برای تولید متن و تصویر.
    • تحلیل موضوعات و جمع‌آوری داده‌ها از منابع مرتبط.
    • پایگاه داده مرکزی برای ذخیره و مدیریت تمام محتوا.
  • اتوماسیون با n8n:

    • جمع‌آوری موضوعات و داده‌ها.
    • تولید محتوای انسانی شامل متن و تصویر.
    • دسته‌بندی محتوا مطابق با ساختار سایت وردپرسی.
    • انتشار خودکار در سایت و شبکه‌های اجتماعی.
  • تولید محتوا:

    • متن: طبیعی، جذاب، مطابق با SEO و مرتبط با حوزه فعالیت.
    • تصاویر و گرافیک: کیفیت بالا و مرتبط با محتوا، مطابق با سبک بصری برند.
    • شبکه‌های اجتماعی: کپشن‌های کوتاه و جذاب برای اینستاگرام و پیام رسان خارجی و قالب ویدئو کوتاه برای یوتیوب

ویژگی‌های فنی:

  • اتصال API به وردپرس، اینستاگرام، پیام رسان خارجی و یوتیوب.
  • قابلیت مشاهده و ویرایش محتوا قبل از انتشار.
  • امنیت و مدیریت دسترسی مناسب برای APIها و داده‌ها.
  • مقیاس‌پذیری برای افزایش حجم محتوا در آینده.

خروجی مورد انتظار:

  • انتشار روزانه محتوا در سایت و شبکه‌های اجتماعی.
  • تولید متن‌های انسانی و تصاویر حرفه‌ای آماده مصرف.
  • ارائه گزارش روزانه یا هفتگی از فعالیت‌ها و محتوای تولید شده.

مهارت‌ها و تخصص‌های مورد نیاز فریلنسر:

  • تجربه کار با n8n و طراحی و ساخت اتوماسیون.
  • توانایی کار با هوش مصنوعی برای تولید متن و تصویر (OpenAI یا مدل‌های مشابه).
  • تسلط به وردپرس و REST API آن.
  • توانایی اتصال و مدیریت APIهای شبکه‌های اجتماعی (اینستاگرام، پیام رسان خارجی، یوتیوب).
  • تجربه در طراحی پایگاه داده برای ذخیره و مدیریت محتوای تولید شده.
  • آشنایی با اصول SEO و تولید محتوا با رویکرد انسانی.

زمان‌بندی پیشنهادی:

  • فاز طراحی ۱ هفته. توجه: با توجه به نوع ثبت پروژه، ارسال شماره تماس جهت هماهنگی الزامی می‌باشد. همچنین، توضیحات و فایل‌های JSON و PDF مربوط به پروژه و توضیحات با هوش مصنوعی جهت راه‌اندازی موجود است.

با تشکر از توجه شما.
دسته‌بندی پروژه: موارد دیگر

مهارت ها:
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
هوش مصنوعی (AI)
بی‌نهایت
فوری
برجسته
متمایز
حرفه‌ای
6 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
برجسته
ایجاد سیستم وب اسکرپینگ Web scraping چند وب سایت

سلام چند وب سایت خارجی فروشگاهی وجود داره، نیاز داریم بوسیله ابزار های موجود یا برنامه نویسی یک نرم افزار بتونیم یه سری دیتا ها رو از این وب سایت ها بصورت روزانه استخراج کنیم . نیاز هست فریلنسر محترم تجربه و تخصص کافی در وب اسکرپینگ داشته باشه و به ابزار ها و راه حل های پیشرفته اون اشنایی کافی داشته باشه .

مهارت ها:
تست نرم افزار
Web Scraping
Database Programming
فرصت انتخاب
پیشنهادها23

ایجاد سیستم وب اسکرپینگ Web scraping چند وب سایت

سلام چند وب سایت خارجی فروشگاهی وجود داره، نیاز داریم بوسیله ابزار های موجود یا برنامه نویسی یک نرم افزار بتونیم یه سری دیتا ها رو از این وب سایت ها بصورت روزانه استخراج کنیم . نیاز هست فریلنسر محترم تجربه و تخصص کافی در وب اسکرپینگ داشته باشه و به ابزار ها و راه حل های پیشرفته اون اشنایی کافی داشته باشه .

مهارت ها:
تست نرم افزار
Web Scraping
Database Programming
برجسته
23 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اینتگریت کردن سرویس Changedetection.io با سیستم داخلی

توضیحات پروژه: ما یک اشتراک از سرویس Changedetection.io تهیه کرده‌ایم و قصد داریم آن را با سیستم داخلی‌مان یکپارچه کنیم. هدف ما این است که تغییرات صفحات مانیتور شده در این سرویس، به‌صورت خودکار در سیستم ما ثبت و قابل استفاده باشد.

جزئیات مورد نیاز: اتصال به API یا Webhook سرویس Changedetection.io دریافت داده‌های مربوط به تغییر صفحات (diff / triggers / notifications) ارسال و ذخیره این داده‌ها در سیستم داخلی ما (Back-end موجود است و API داخلی آماده است)

مهارت‌های مورد نیاز: تسلط به Python یا JavaScript (Node.js) تجربه کار با REST API و Webhookها آشنایی با مفاهیم Integration بین سرویس‌ها آشنایی با دیتابیس‌ها (آشنایی با PostgreSQL مزیت محسوب می‌شود) توانایی نوشتن کد تمیز، مستند و قابل نگهداری

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
فرصت انتخاب
پیشنهادها12

اینتگریت کردن سرویس Changedetection.io با سیستم داخلی

توضیحات پروژه: ما یک اشتراک از سرویس Changedetection.io تهیه کرده‌ایم و قصد داریم آن را با سیستم داخلی‌مان یکپارچه کنیم. هدف ما این است که تغییرات صفحات مانیتور شده در این سرویس، به‌صورت خودکار در سیستم ما ثبت و قابل استفاده باشد.

جزئیات مورد نیاز: اتصال به API یا Webhook سرویس Changedetection.io دریافت داده‌های مربوط به تغییر صفحات (diff / triggers / notifications) ارسال و ذخیره این داده‌ها در سیستم داخلی ما (Back-end موجود است و API داخلی آماده است)

مهارت‌های مورد نیاز: تسلط به Python یا JavaScript (Node.js) تجربه کار با REST API و Webhookها آشنایی با مفاهیم Integration بین سرویس‌ها آشنایی با دیتابیس‌ها (آشنایی با PostgreSQL مزیت محسوب می‌شود) توانایی نوشتن کد تمیز، مستند و قابل نگهداری

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
12 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

کیفیت بیشترین اهمیت را دارد.
بی‌نهایت
اتوماسیون مدیریت محتوای فنی ووکامرس

نام پروژه : اتوماسیون مدیریت محتوای فنی ووکامرس هدف : جمع آوری، دسته بندی، اصلاح ساختار و انتقال خودکار محتوا از منابع داده به ووکامرس خلاصه مدیریتی : یک الگوی محتوای هدف برای تک محصولات ووکامرس تعریف شده؛ قصد داریم به صورت خودکار داده های مورد نیاز را از منابع اصلی جمع آوری کنیم و پس از ویرایش، به صورت خودکار در ووکامرس منتشر کنیم.

نیازمندی های پروژه : -جستجوی خودکار محتوای فنی قطعات و تجهیزات صنعتی از منابع معتبر (ترجیحا منابع سازنده قطعه) -ذخیره، ساختاردهی و اصلاح داده ها طبق الگوی محتوای تعریف شده در پایگاه داده -درج متا دیتاهای مورد نیاز برای اهداف دسته بندی و سئو برای هر محصول -درج کدینگ (SKU) برای هر محصول (طبق الگو) و انتشار محتوا در ووکامرس -دریافت بروزرسانی از سمت منبع داده و اعمال در ووکامرس

محدوده پروژه : -تعداد تک محصولات پیش بینی شده : بیش از 10 میلیون محصول -تعداد دسته بندی های محصولات : بیش از 5 هزار دسته

الگوی اطلاعات صفحه تک محصول ووکامرس : -نام فارسی و انگلیسی محصول -کد سازنده (فنی) هر قطعه -نام فارسی و انگلیسی برند سازنده -تصاویر محصول (درج خودکار واترمارک) -فایل کاتالوگ و دیتاشیت هر محصول -درختواره دسته بندی محصول -مشخصات فنی (Taxonomy) هر محصول -معرفی خلاصه محصول -محصولات سازگار برای هر محصول (Compatible) -محصولات مکمل برای هر محصول (Complementary)

الزامات پروژه : -تهیه فایل WBS پروژه -یکسال پشتیبانی رایگان پس از تحویل -مستندسازی کامل -تحویل کامل کد بدون محدودیت -NDA (قرارداد عدم افشای اطلاعات محرمانه)

نحوه همکاری : -پروژه ای، با قرارداد کتبی و ضمانت نامه حسن اجرای تعهدات -مجری پس از مصاحبه آنلاین و بررسی سوابق فنی انتخاب می شود روش پرداخت : 25% پیش پرداخت با ارائه چک ضمانت از سمت مجری 10% بابت بسته شدن هر فاز از پروژه (حداکثر 6 فاز می تواند تعریف شود) 15% پس از تست، آموزش و تحویل پروژه (در قالب صورتجلسه تحویل) توضیحات : ضمانت نامه پیش پرداخت به مبلغ 130% آن، پس از تحویل پروژه عودت داده می شود ضمانت نامه حسن اجرای تعهدات به مبلغ 30% کل قرارداد پس از پایان دوره گارانتی تحویل داده می شود ضمانت نامه در قالب چک صیادی می باشد

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
وردپرس (WordPress)
فرصت انتخاب
پیشنهادها12

اتوماسیون مدیریت محتوای فنی ووکامرس

نام پروژه : اتوماسیون مدیریت محتوای فنی ووکامرس هدف : جمع آوری، دسته بندی، اصلاح ساختار و انتقال خودکار محتوا از منابع داده به ووکامرس خلاصه مدیریتی : یک الگوی محتوای هدف برای تک محصولات ووکامرس تعریف شده؛ قصد داریم به صورت خودکار داده های مورد نیاز را از منابع اصلی جمع آوری کنیم و پس از ویرایش، به صورت خودکار در ووکامرس منتشر کنیم.

نیازمندی های پروژه : -جستجوی خودکار محتوای فنی قطعات و تجهیزات صنعتی از منابع معتبر (ترجیحا منابع سازنده قطعه) -ذخیره، ساختاردهی و اصلاح داده ها طبق الگوی محتوای تعریف شده در پایگاه داده -درج متا دیتاهای مورد نیاز برای اهداف دسته بندی و سئو برای هر محصول -درج کدینگ (SKU) برای هر محصول (طبق الگو) و انتشار محتوا در ووکامرس -دریافت بروزرسانی از سمت منبع داده و اعمال در ووکامرس

محدوده پروژه : -تعداد تک محصولات پیش بینی شده : بیش از 10 میلیون محصول -تعداد دسته بندی های محصولات : بیش از 5 هزار دسته

الگوی اطلاعات صفحه تک محصول ووکامرس : -نام فارسی و انگلیسی محصول -کد سازنده (فنی) هر قطعه -نام فارسی و انگلیسی برند سازنده -تصاویر محصول (درج خودکار واترمارک) -فایل کاتالوگ و دیتاشیت هر محصول -درختواره دسته بندی محصول -مشخصات فنی (Taxonomy) هر محصول -معرفی خلاصه محصول -محصولات سازگار برای هر محصول (Compatible) -محصولات مکمل برای هر محصول (Complementary)

الزامات پروژه : -تهیه فایل WBS پروژه -یکسال پشتیبانی رایگان پس از تحویل -مستندسازی کامل -تحویل کامل کد بدون محدودیت -NDA (قرارداد عدم افشای اطلاعات محرمانه)

نحوه همکاری : -پروژه ای، با قرارداد کتبی و ضمانت نامه حسن اجرای تعهدات -مجری پس از مصاحبه آنلاین و بررسی سوابق فنی انتخاب می شود روش پرداخت : 25% پیش پرداخت با ارائه چک ضمانت از سمت مجری 10% بابت بسته شدن هر فاز از پروژه (حداکثر 6 فاز می تواند تعریف شود) 15% پس از تست، آموزش و تحویل پروژه (در قالب صورتجلسه تحویل) توضیحات : ضمانت نامه پیش پرداخت به مبلغ 130% آن، پس از تحویل پروژه عودت داده می شود ضمانت نامه حسن اجرای تعهدات به مبلغ 30% کل قرارداد پس از پایان دوره گارانتی تحویل داده می شود ضمانت نامه در قالب چک صیادی می باشد

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
وردپرس (WordPress)
بی‌نهایت
12 پیشنهاد
کیفیت بیشترین اهمیت را دارد.
مشاهده‌ی پروژه


ترکیبی از قیمت و کیفیت اهمیت دارد.
انتقال و ترجمه محصولات از سایت فارسی به سایت لاتین

سلام. هردو سایت ما وردپرس ووکامرس هستش. محصولات را از سایت فارسیمون به سایت انگلیسیمون میخوایم انتقال بدیم (برون بری و درون ریزی یا هر روشی که بهتر میدونید). فقط قبل از درون ریزی به سایت انگلیسی، بایستی فایل حاوی محصولات (حالا با هرفرمتی CSV، JSON و...) ابتدا به انگلیسی ترجمه شوند و سپس درون ریزی شوند. محصولات ما شامل موبایل و تبلت است و جدول مشخصات فنی دارند که این جدول از طریق یک افزونه ایجاد شده و اون افزونه هم قابلیت برون بری و درون ریزی دارد. لذا چه فایل جدول و چه محصولات کلا بایستی ابتدا ترجمه و سپس داخل سایت انگلیسی درون ریزی شوند. پس از درون ریزی، هم جایگاه جدول و توضیحات محصول و خلاصه کم و زیاد نمایش محتوا گرفته بشه و هم از نظر چپ چین شدن محتوا اوکی بشه. این روند هم بهم گفته بشه که آینده مجددا واسه انتقالشون خودم بتونم انجام بدم.

مهارت ها:
MySQL
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها15

انتقال و ترجمه محصولات از سایت فارسی به سایت لاتین

سلام. هردو سایت ما وردپرس ووکامرس هستش. محصولات را از سایت فارسیمون به سایت انگلیسیمون میخوایم انتقال بدیم (برون بری و درون ریزی یا هر روشی که بهتر میدونید). فقط قبل از درون ریزی به سایت انگلیسی، بایستی فایل حاوی محصولات (حالا با هرفرمتی CSV، JSON و...) ابتدا به انگلیسی ترجمه شوند و سپس درون ریزی شوند. محصولات ما شامل موبایل و تبلت است و جدول مشخصات فنی دارند که این جدول از طریق یک افزونه ایجاد شده و اون افزونه هم قابلیت برون بری و درون ریزی دارد. لذا چه فایل جدول و چه محصولات کلا بایستی ابتدا ترجمه و سپس داخل سایت انگلیسی درون ریزی شوند. پس از درون ریزی، هم جایگاه جدول و توضیحات محصول و خلاصه کم و زیاد نمایش محتوا گرفته بشه و هم از نظر چپ چین شدن محتوا اوکی بشه. این روند هم بهم گفته بشه که آینده مجددا واسه انتقالشون خودم بتونم انجام بدم.

مهارت ها:
MySQL
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
پایان فرصت ارسال پیشنهاد
15 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اسکرپ و آپدیت دیتای محصولات از سایت مبدا به مقصد با پایتون

اسکریپت سینک محصولات ووکامرس (Python)

یک اسکریپت پایتون برای استخراج (scrape) محصولات از یک سایت ووکامرسی نوشته شده که میخوایم اون رو از اول بنویسید یا بر اساس اون و توضیحات پروژه دوباره بنویسیدش. توضیحات کامل با جزئیات در فایل ضمیمه قابل دانلود است.

🔍 خلاصه‌ی نیازمندی‌ها

مرحله استخراج (Scraping): خواندن سایت‌مپ‌ها و استخراج URL، تصویر شاخص و lastmod. بررسی و خواندن اطلاعات داخل صفحات محصول (نام، SKU، قیمت، توضیحات، دسته‌بندی، موجودی و…) ذخیره در فایل CSV (UTF‑8 و بدون به‌هم‌ریختگی فارسی). دارای گزینه‌ی Test Mode و ذخیره‌ی مرحله‌ای (batch).

مرحله همگام‌سازی (Syncing): ارسال داده‌ها به سایت مقصد با API ووکامرس (woocommerce-api). آپلود تصویر از طریق REST API وردپرس و جلوگیری آپلود فایل تکراری. فقط محصولات جدید ساخته شوند (تشخیص بر اساس SKU). ذخیره وضعیت تغییر lastmod در sync_status.json و صرف‌نظر از اسکرپ موارد تکراری یا بدون تغییر. امکان تعیین تعداد آپلود هم‌زمان (rate limit) برای جلوگیری از بلاک شدن سرور.

عمومی: ساختار تمیز با فایل .env برای پیکربندی. منوی CLI با گزینه‌های «فقط استخراج»، «فقط سینک» یا «هر دو». گزارش و لاگ انگلیسی، مدیریت خطا، و خلاصه نهایی از نتایج.

مهارت ها:
پایتون (Python)
Web Scraping
وردپرس (WordPress)
Debugging
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها4

اسکرپ و آپدیت دیتای محصولات از سایت مبدا به مقصد با پایتون

اسکریپت سینک محصولات ووکامرس (Python)

یک اسکریپت پایتون برای استخراج (scrape) محصولات از یک سایت ووکامرسی نوشته شده که میخوایم اون رو از اول بنویسید یا بر اساس اون و توضیحات پروژه دوباره بنویسیدش. توضیحات کامل با جزئیات در فایل ضمیمه قابل دانلود است.

🔍 خلاصه‌ی نیازمندی‌ها

مرحله استخراج (Scraping): خواندن سایت‌مپ‌ها و استخراج URL، تصویر شاخص و lastmod. بررسی و خواندن اطلاعات داخل صفحات محصول (نام، SKU، قیمت، توضیحات، دسته‌بندی، موجودی و…) ذخیره در فایل CSV (UTF‑8 و بدون به‌هم‌ریختگی فارسی). دارای گزینه‌ی Test Mode و ذخیره‌ی مرحله‌ای (batch).

مرحله همگام‌سازی (Syncing): ارسال داده‌ها به سایت مقصد با API ووکامرس (woocommerce-api). آپلود تصویر از طریق REST API وردپرس و جلوگیری آپلود فایل تکراری. فقط محصولات جدید ساخته شوند (تشخیص بر اساس SKU). ذخیره وضعیت تغییر lastmod در sync_status.json و صرف‌نظر از اسکرپ موارد تکراری یا بدون تغییر. امکان تعیین تعداد آپلود هم‌زمان (rate limit) برای جلوگیری از بلاک شدن سرور.

عمومی: ساختار تمیز با فایل .env برای پیکربندی. منوی CLI با گزینه‌های «فقط استخراج»، «فقط سینک» یا «هر دو». گزارش و لاگ انگلیسی، مدیریت خطا، و خلاصه نهایی از نتایج.

مهارت ها:
پایتون (Python)
Web Scraping
وردپرس (WordPress)
Debugging
پایان فرصت ارسال پیشنهاد
4 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
توسعه‌دهنده AWS برای ساخت وب اسکرپر سرورلس Terraform- Lambda

شرح کلی پروژه به دنبال یک توسعه‌دهنده ماهر و باتجربه AWS هستم تا یک راهکار وب اسکرپینگ (Web Scraping) مقاوم و غیرقابل شناسایی را با معماری سرورلس پیاده‌سازی کند. وظیفه اصلی، استخراج اطلاعات محصولات از یک وب‌سایت فروشگاهی، مدیریت مکانیزم‌های ضد ربات، ذخیره‌سازی داده‌ها در DynamoDB و ارسال هر محصول جدید در قالب JSON به یک وب‌هوک (Webhook) مشخص است.

کل زیرساخت پروژه باید با استفاده از Terraform تعریف و پیاده‌سازی شود تا قابلیت نگهداری و مقیاس‌پذیری بالایی داشته باشد.

مسئولیت‌های کلیدی

توسعه یک سیستم وب اسکرپینگ سرورلس در AWS با استفاده از Lambda، SQS و DynamoDB. نوشتن و مدیریت کامل زیرساخت به عنوان کد (IaC) با استفاده از Terraform و با ساختاری ماژولار و تمیز. پیاده‌سازی استراتژی‌های پیشرفته برای دور زدن سیستم‌های ضد ربات، شامل چرخش پراکسی‌های مسکونی (Residential Proxy) و مدیریت User-Agent. ساخت یک سیستم دو بخشی با Lambda: یک تابع برای مدیریت و تولید تسک‌ها (Orchestrator) و یک تابع برای اجرای اسکرپینگ (Worker). پس از ذخیره‌سازی موفق هر محصول در DynamoDB، تابع اسکرپر باید یک درخواست POST حاوی داده‌های محصول به صورت JSON به URL وب‌هوک ارسال کند. طراحی یک اسکیمای بهینه برای DynamoDB جهت ذخیره‌سازی داده‌ها و جلوگیری از ثبت اطلاعات تکراری با استفاده از Global Secondary Index (GSI).

تکنولوژی‌ها و نیازمندی‌های فنی

زیرساخت: Terraform کلاد: AWS (Lambda, SQS, DynamoDB, EventBridge, CloudWatch) زبان برنامه‌نویسی: Node.js (نسخه 22.x) اسکرپینگ: Cheerio, Axios یکپارچه‌سازی: ارسال امن داده به یک وب‌هوک خارجی. پایگاه داده: DynamoDB با ظرفیت On-Demand و قابلیت TTL.

خروجی‌های پروژه

کد کامل Terraform: کد ماژولار و آماده برای محیط پروداکشن که تمام منابع AWS را تعریف می‌کند. توابع Lambda با Node.js: Orchestrator: برای تولید و ارسال تسک‌ها به صف SQS. Scraper: برای دریافت HTML، پارس داده‌ها، ذخیره‌سازی در DynamoDB و ارسال پی‌لود JSON به وب‌هوک. منطق ضد شناسایی: پیاده‌سازی محدودیت نرخ درخواست (Rate Limiting)، چرخش پراکسی و تغییر هدرها. مدیریت داده: طراحی اسکیمای جدول DynamoDB برای کوئری‌های بهینه و جلوگیری از تکرار داده. مدیریت خطا: استفاده از صف SQS Dead-Letter Queue (DLQ) برای مدیریت تسک‌های ناموفق و تنظیم آلارم در CloudWatch. مستندات: یک فایل README.md جامع شامل توضیحات معماری، راهنمای استقرار، متغیرهای محیطی (شامل URL وب‌هوک) و نمونه‌ای از پی‌لود JSON.

مهارت ها:
Amazon Web Services
جاوا اسکریپت (JavaScript)
Node.js
Web Scraping
Web Services
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها5

توسعه‌دهنده AWS برای ساخت وب اسکرپر سرورلس Terraform- Lambda

شرح کلی پروژه به دنبال یک توسعه‌دهنده ماهر و باتجربه AWS هستم تا یک راهکار وب اسکرپینگ (Web Scraping) مقاوم و غیرقابل شناسایی را با معماری سرورلس پیاده‌سازی کند. وظیفه اصلی، استخراج اطلاعات محصولات از یک وب‌سایت فروشگاهی، مدیریت مکانیزم‌های ضد ربات، ذخیره‌سازی داده‌ها در DynamoDB و ارسال هر محصول جدید در قالب JSON به یک وب‌هوک (Webhook) مشخص است.

کل زیرساخت پروژه باید با استفاده از Terraform تعریف و پیاده‌سازی شود تا قابلیت نگهداری و مقیاس‌پذیری بالایی داشته باشد.

مسئولیت‌های کلیدی

توسعه یک سیستم وب اسکرپینگ سرورلس در AWS با استفاده از Lambda، SQS و DynamoDB. نوشتن و مدیریت کامل زیرساخت به عنوان کد (IaC) با استفاده از Terraform و با ساختاری ماژولار و تمیز. پیاده‌سازی استراتژی‌های پیشرفته برای دور زدن سیستم‌های ضد ربات، شامل چرخش پراکسی‌های مسکونی (Residential Proxy) و مدیریت User-Agent. ساخت یک سیستم دو بخشی با Lambda: یک تابع برای مدیریت و تولید تسک‌ها (Orchestrator) و یک تابع برای اجرای اسکرپینگ (Worker). پس از ذخیره‌سازی موفق هر محصول در DynamoDB، تابع اسکرپر باید یک درخواست POST حاوی داده‌های محصول به صورت JSON به URL وب‌هوک ارسال کند. طراحی یک اسکیمای بهینه برای DynamoDB جهت ذخیره‌سازی داده‌ها و جلوگیری از ثبت اطلاعات تکراری با استفاده از Global Secondary Index (GSI).

تکنولوژی‌ها و نیازمندی‌های فنی

زیرساخت: Terraform کلاد: AWS (Lambda, SQS, DynamoDB, EventBridge, CloudWatch) زبان برنامه‌نویسی: Node.js (نسخه 22.x) اسکرپینگ: Cheerio, Axios یکپارچه‌سازی: ارسال امن داده به یک وب‌هوک خارجی. پایگاه داده: DynamoDB با ظرفیت On-Demand و قابلیت TTL.

خروجی‌های پروژه

کد کامل Terraform: کد ماژولار و آماده برای محیط پروداکشن که تمام منابع AWS را تعریف می‌کند. توابع Lambda با Node.js: Orchestrator: برای تولید و ارسال تسک‌ها به صف SQS. Scraper: برای دریافت HTML، پارس داده‌ها، ذخیره‌سازی در DynamoDB و ارسال پی‌لود JSON به وب‌هوک. منطق ضد شناسایی: پیاده‌سازی محدودیت نرخ درخواست (Rate Limiting)، چرخش پراکسی و تغییر هدرها. مدیریت داده: طراحی اسکیمای جدول DynamoDB برای کوئری‌های بهینه و جلوگیری از تکرار داده. مدیریت خطا: استفاده از صف SQS Dead-Letter Queue (DLQ) برای مدیریت تسک‌های ناموفق و تنظیم آلارم در CloudWatch. مستندات: یک فایل README.md جامع شامل توضیحات معماری، راهنمای استقرار، متغیرهای محیطی (شامل URL وب‌هوک) و نمونه‌ای از پی‌لود JSON.

مهارت ها:
Amazon Web Services
جاوا اسکریپت (JavaScript)
Node.js
Web Scraping
Web Services
پایان فرصت ارسال پیشنهاد
5 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
استخراج اطلاعات از سایت

میخوام از یک سری سایت ها استخراج انجام بشه. با سرعت بالا باشه. گیر نخوره. بصورت روتین طی یک زمان هایی عملیات استخراج مجدد صورت باید بگیره. دقت کنین که تعداد صفحاتی که بخواد استخراج بشه ممکنه زیاد باشه، و همینطورم هر روز یا یه روز در میون آپدیت میخوام بشه دیتا. ممکنه اون سایت ها یه سری api بدن، یا ندن. برای کاربری راحت تر هم یه پنل مدیریتی میخوام که راحت بشه هر کاری رو با یک دکمه انجام داد و نیاز نباشه بخوایم اسکریپتی رو جداگونه دستی بزنیم ران بشه. با سپاس

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
Golang
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها36

استخراج اطلاعات از سایت

میخوام از یک سری سایت ها استخراج انجام بشه. با سرعت بالا باشه. گیر نخوره. بصورت روتین طی یک زمان هایی عملیات استخراج مجدد صورت باید بگیره. دقت کنین که تعداد صفحاتی که بخواد استخراج بشه ممکنه زیاد باشه، و همینطورم هر روز یا یه روز در میون آپدیت میخوام بشه دیتا. ممکنه اون سایت ها یه سری api بدن، یا ندن. برای کاربری راحت تر هم یه پنل مدیریتی میخوام که راحت بشه هر کاری رو با یک دکمه انجام داد و نیاز نباشه بخوایم اسکریپتی رو جداگونه دستی بزنیم ران بشه. با سپاس

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
Golang
بی‌نهایت
پایان فرصت ارسال پیشنهاد
36 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
متمایز
استخدام پاره‌وقت برنامه‌نویس پایتون Mid level

ما در حال توسعه‌ی یک پلتفرم جامع برای جمع‌آوری و طبقه‌بندی منابع آموزش شامل درس‌ها، ویدیوها، کتاب‌ها و وبینارها برای معلمان هستیم

این منابع همگی از وبسایت‌های خارجی scrape و در دیتابیس SQLite ذخیره و سپس روی پلتفرم ما آپلود میشوند.

داده‌ها از پایگاه داده محلی SQLite توسط API و با کد پایتون به وردپرس ارسال می‌شوند.

کار با دیتاست‌های حجیم (ده‌ها هزار رکورد) انجام می‌شود.

به‌دنبال یک برنامه‌نویس mid level پایتون هستیم که بتواند در بخش اسکرپینگ، بهینه‌سازی و اتوماسیون انتقال داده‌ها با ما همکاری کند. ____

شرح وظایف

• توسعه و نگهداری اسکریپت‌های پایتون برای: o استخراج (Scraping) داده‌ها از وب‌سایت‌های منابع آموزشی خارجی (HTML parsing, JSON, RSS, API) o ساخت و به‌روزرسانی جداول SQLite o ارسال خودکار داده‌ها (پست‌ها و متافیلدها) به WordPress REST API o مدیریت آپلود تصاویر و فایل‌ها روی CDN o ایجاد ارتباط بین داده‌ها (Relations) بین دروس و مجموعه‌ها (Sets) • بهینه‌سازی ساختار داده‌ها برای کارایی بالا در انتقال انبوه (Batch upload) • بررسی و رفع خطاهای ارتباط بین پایتون و وردپرس (API debugging) • ایجاد گزارش‌های خودکار از وضعیت داده‌های بارگذاری‌شده • بررسی صحت و validation برای فایل‌ها و داده‌های اسکرپ شده ____

مهارت‌های مورد نیاز

• تسلط کامل به Python 3 • تجربه عملی در Web Scraping با یکی از کتابخانه‌ها: BeautifulSoup, Requests, Playwright, Selenium • تسلط به SQLite و ساخت و به‌روزرسانی جداول دیتابیس • آشنایی با WordPress REST API خواندن/نوشتن پست‌ها، متاها، taxonomy و relations) • تسلط به کار با JSON, HTTP requests, و کتابخانه‌هایی مانند requests • درک ساختار داده‌های سایت‌های آموزشی (درس، سطح، سن، مهارت، ویدیو، صوت و ...) • تجربه با پروژه‌های داده‌محور یا crawlerهای آموزشی امتیاز محسوب می‌شود • تسلط به مهارت خواندن و درک مطلب زبان انگلیسی در سطح Intermediate به بالا


نوع و شرایط همکاری

• کار کاملاً از راه دور است. • پروژه‌ای سه ماهه (با امکان تمدید همکاری بلندمدت) • لطفا فقط در صورتی پیشنهاد ارسال کنید که امکان کار کردن روزانه ۴ تا ۵ ساعت را دارید
• پرداخت به ازای ماژول‌های تحویلی و تسک‌های مشخص • در صورت رضایت از عملکرد، همکاری مستمر برای نگهداری و توسعه سیستم در آینده خواهیم داشت • همکاری به صورت دورکاری است و نیاز به تعهد به ساعات کاری ذکر شده دارد. • تنها افرادی که به صورت حرفه‌ای در زمینه‌های فوق فعالیت کرده‌اند و نمونه کارهای مربوطه را دارند، دعوت به همکاری می‌شوند. • سورس‌کدها باید در ریپازیتوری private در گیتهاب تحویل شوند.

با تشکر

مهارت ها:
پایتون (Python)
تست نرم افزار
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها26

استخدام پاره‌وقت برنامه‌نویس پایتون Mid level

ما در حال توسعه‌ی یک پلتفرم جامع برای جمع‌آوری و طبقه‌بندی منابع آموزش شامل درس‌ها، ویدیوها، کتاب‌ها و وبینارها برای معلمان هستیم

این منابع همگی از وبسایت‌های خارجی scrape و در دیتابیس SQLite ذخیره و سپس روی پلتفرم ما آپلود میشوند.

داده‌ها از پایگاه داده محلی SQLite توسط API و با کد پایتون به وردپرس ارسال می‌شوند.

کار با دیتاست‌های حجیم (ده‌ها هزار رکورد) انجام می‌شود.

به‌دنبال یک برنامه‌نویس mid level پایتون هستیم که بتواند در بخش اسکرپینگ، بهینه‌سازی و اتوماسیون انتقال داده‌ها با ما همکاری کند. ____

شرح وظایف

• توسعه و نگهداری اسکریپت‌های پایتون برای: o استخراج (Scraping) داده‌ها از وب‌سایت‌های منابع آموزشی خارجی (HTML parsing, JSON, RSS, API) o ساخت و به‌روزرسانی جداول SQLite o ارسال خودکار داده‌ها (پست‌ها و متافیلدها) به WordPress REST API o مدیریت آپلود تصاویر و فایل‌ها روی CDN o ایجاد ارتباط بین داده‌ها (Relations) بین دروس و مجموعه‌ها (Sets) • بهینه‌سازی ساختار داده‌ها برای کارایی بالا در انتقال انبوه (Batch upload) • بررسی و رفع خطاهای ارتباط بین پایتون و وردپرس (API debugging) • ایجاد گزارش‌های خودکار از وضعیت داده‌های بارگذاری‌شده • بررسی صحت و validation برای فایل‌ها و داده‌های اسکرپ شده ____

مهارت‌های مورد نیاز

• تسلط کامل به Python 3 • تجربه عملی در Web Scraping با یکی از کتابخانه‌ها: BeautifulSoup, Requests, Playwright, Selenium • تسلط به SQLite و ساخت و به‌روزرسانی جداول دیتابیس • آشنایی با WordPress REST API خواندن/نوشتن پست‌ها، متاها، taxonomy و relations) • تسلط به کار با JSON, HTTP requests, و کتابخانه‌هایی مانند requests • درک ساختار داده‌های سایت‌های آموزشی (درس، سطح، سن، مهارت، ویدیو، صوت و ...) • تجربه با پروژه‌های داده‌محور یا crawlerهای آموزشی امتیاز محسوب می‌شود • تسلط به مهارت خواندن و درک مطلب زبان انگلیسی در سطح Intermediate به بالا


نوع و شرایط همکاری

• کار کاملاً از راه دور است. • پروژه‌ای سه ماهه (با امکان تمدید همکاری بلندمدت) • لطفا فقط در صورتی پیشنهاد ارسال کنید که امکان کار کردن روزانه ۴ تا ۵ ساعت را دارید
• پرداخت به ازای ماژول‌های تحویلی و تسک‌های مشخص • در صورت رضایت از عملکرد، همکاری مستمر برای نگهداری و توسعه سیستم در آینده خواهیم داشت • همکاری به صورت دورکاری است و نیاز به تعهد به ساعات کاری ذکر شده دارد. • تنها افرادی که به صورت حرفه‌ای در زمینه‌های فوق فعالیت کرده‌اند و نمونه کارهای مربوطه را دارند، دعوت به همکاری می‌شوند. • سورس‌کدها باید در ریپازیتوری private در گیتهاب تحویل شوند.

با تشکر

مهارت ها:
پایتون (Python)
تست نرم افزار
Web Scraping
بی‌نهایت
فوری
برجسته
متمایز
پایان فرصت ارسال پیشنهاد
26 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
توسعه کراولر به زبان پایتون

سلام نیاز به توسعه یک کراولر دارم که اطلاعات برخی وب سایتها رو طبق الگویی که عرض میکنم جمع آوری و ارائه کند. همچنین باید خودتون زحمت اجرای آن را بکشید و خروجی را به همراه اسکریپت به بنده تحویل دهید. چنانچه مایل به انجام این کار با زبان پایتون هستید، لطفاً پیشنهادتون رو ارائه فرمائید. متشکرم

مهارت ها:
پایتون (Python)
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها23

توسعه کراولر به زبان پایتون

سلام نیاز به توسعه یک کراولر دارم که اطلاعات برخی وب سایتها رو طبق الگویی که عرض میکنم جمع آوری و ارائه کند. همچنین باید خودتون زحمت اجرای آن را بکشید و خروجی را به همراه اسکریپت به بنده تحویل دهید. چنانچه مایل به انجام این کار با زبان پایتون هستید، لطفاً پیشنهادتون رو ارائه فرمائید. متشکرم

مهارت ها:
پایتون (Python)
Web Scraping
پایان فرصت ارسال پیشنهاد
23 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

قیمت بیشترین اهمیت را دارد.
اتصال سایت به سرور خارجیFTP برای آپلود اتوماتیک ویدئوهای پست

سلام پروژه ای هست که سایت وردپرس بدلیل کم شدن فضای هاستش نیاز داره که یک هاست خریداری شده دانلود رو بهش متصل کنیم بگونه ای که مطالب به محض ارسال بهش بصورت اتوماتیک فایل ویدئو موجود درش اتومات به سرور دانلود منتقل بشن و لینک جدیدش در سایت قرار بگیره اتوماتیک تا ویدئو ها از اون هاست بالا بیاد. فکر کنم به یک افزونه سفارشی برای این کار نیازه که رسانه به سرور دانلود خارجی با استفاده از SSH/SCP یا Curl متصل بشه.

ما نیاز به یک راه‌حل پایدار برای آپلود فایل‌های ویدیو از داخل پیشخوان وردپرس داریم، به گونه‌ای که فایل‌ها مستقیماً به یک سرور دانلود (VPS) منتقل بشوند. ما به یک راه‌حل مبتنی بر کدنویسی نیاز داریم که از روش‌های انتقال مطمئن‌ و پایدار استفاده بکنه و به محض انتشار مطلب ویدئوهای پست رو روی سرور دانلود انتقال بده و توی پست هم اتوماتیک لینکش رو تغییر بده به لینک هاست دانلود تا ویدئو توی سایت اصلی نمایش داده بشه . فقط لطفا افرادی که کامل تخصص دارن پروژه رو قبول بکنن . چون پروژه نیاز به این داره که قبلا حتما فرد این کار رو انجام داده باشه.

مهارت ها:
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
راه اندازی سرور لینوکس
برنامه نویسی بک اند (Back-End)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها10

اتصال سایت به سرور خارجیFTP برای آپلود اتوماتیک ویدئوهای پست

سلام پروژه ای هست که سایت وردپرس بدلیل کم شدن فضای هاستش نیاز داره که یک هاست خریداری شده دانلود رو بهش متصل کنیم بگونه ای که مطالب به محض ارسال بهش بصورت اتوماتیک فایل ویدئو موجود درش اتومات به سرور دانلود منتقل بشن و لینک جدیدش در سایت قرار بگیره اتوماتیک تا ویدئو ها از اون هاست بالا بیاد. فکر کنم به یک افزونه سفارشی برای این کار نیازه که رسانه به سرور دانلود خارجی با استفاده از SSH/SCP یا Curl متصل بشه.

ما نیاز به یک راه‌حل پایدار برای آپلود فایل‌های ویدیو از داخل پیشخوان وردپرس داریم، به گونه‌ای که فایل‌ها مستقیماً به یک سرور دانلود (VPS) منتقل بشوند. ما به یک راه‌حل مبتنی بر کدنویسی نیاز داریم که از روش‌های انتقال مطمئن‌ و پایدار استفاده بکنه و به محض انتشار مطلب ویدئوهای پست رو روی سرور دانلود انتقال بده و توی پست هم اتوماتیک لینکش رو تغییر بده به لینک هاست دانلود تا ویدئو توی سایت اصلی نمایش داده بشه . فقط لطفا افرادی که کامل تخصص دارن پروژه رو قبول بکنن . چون پروژه نیاز به این داره که قبلا حتما فرد این کار رو انجام داده باشه.

مهارت ها:
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
راه اندازی سرور لینوکس
برنامه نویسی بک اند (Back-End)
پایان فرصت ارسال پیشنهاد
10 پیشنهاد
قیمت بیشترین اهمیت را دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بیلبورد شده
فوری
برجسته
کرالر و مرجر داده‌های گوگل مپ و تریپ‌ادوایزرPython/Node.js

به دنبال برنامه‌نویس با تجربه در Python یا Node.js هستیم تا یک کرالر حرفه‌ای و ماژول مرجر برای جمع‌آوری و یکپارچه‌سازی داده‌های مکان‌های گردشگری و غذایی (رستوران، کافه و …) از Google Maps و TripAdvisor در شهرهای ایران و کشورهای اطراف توسعه دهد.

ویژگی‌های پروژه: جمع‌آوری اطلاعات پایه مکان‌ها: نام، آدرس، شماره تماس، وبسایت، شبکه‌های اجتماعی، ساعات کاری، تصاویر جمع‌آوری ریویوها با حداقل تعداد مشخص (مثلاً فقط مکان‌هایی با ≥25 ریویو) امکان تنظیم حداقل/حداکثر تعداد ریویو برای هر مکان و مرتب‌سازی بر اساس جدیدترین‌ها خروجی استاندارد CSV/JSON و اتصال مستقیم به دیتابیس MySQL ماژول مرجر برای یکپارچه‌سازی داده‌ها خروجی آماده برای پردازش‌های بعدی و سیستم‌های مدیریت داده rate-limiting و random delay برای جلوگیری از بن شدن resume / incremental crawling برای بروزرسانی دوره‌ای داده‌ها پشتیبانی از چند شهر هم‌زمان پشتیبانی از proxy و headless mode (Selenium / Puppeteer) ساختار ماژولار برای افزودن منابع جدید (مثل Yelp در آینده)

خروجی نمونه: اطلاعات پایه: id, title, address, latitude, longitude, phone, website, social_instagram, category, tags ریویوها: source, date, content, rating, items تصاویر: حداقل ۴ تصویر فرمت خروجی مورد انتظار سه فایل خروجی مجزا: businesses.csv – اطلاعات پایه رستوران‌ها reviews.csv – نظرات کاربران report.log – گزارش کرال (تعداد موفق/ناموفق، ارورها، زمان اجرا) همه‌ی داده‌ها باید مستقیم به دیتابیس MySQL وارد شوند.

مهارت‌های مورد نیاز: Python یا Node.js Web Scraping / Anti-ban handling مدیریت خطا و ریت لیمیت مدیریت داده و ذخیره‌سازی CSV/JSON تجربه کار با دیتابیس MySQL

مهارت ها:
Node.js
MySQL
پایتون (Python)
Web Scraping
JSON
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها18

بیلبورد شده
کرالر و مرجر داده‌های گوگل مپ و تریپ‌ادوایزرPython/Node.js

به دنبال برنامه‌نویس با تجربه در Python یا Node.js هستیم تا یک کرالر حرفه‌ای و ماژول مرجر برای جمع‌آوری و یکپارچه‌سازی داده‌های مکان‌های گردشگری و غذایی (رستوران، کافه و …) از Google Maps و TripAdvisor در شهرهای ایران و کشورهای اطراف توسعه دهد.

ویژگی‌های پروژه: جمع‌آوری اطلاعات پایه مکان‌ها: نام، آدرس، شماره تماس، وبسایت، شبکه‌های اجتماعی، ساعات کاری، تصاویر جمع‌آوری ریویوها با حداقل تعداد مشخص (مثلاً فقط مکان‌هایی با ≥25 ریویو) امکان تنظیم حداقل/حداکثر تعداد ریویو برای هر مکان و مرتب‌سازی بر اساس جدیدترین‌ها خروجی استاندارد CSV/JSON و اتصال مستقیم به دیتابیس MySQL ماژول مرجر برای یکپارچه‌سازی داده‌ها خروجی آماده برای پردازش‌های بعدی و سیستم‌های مدیریت داده rate-limiting و random delay برای جلوگیری از بن شدن resume / incremental crawling برای بروزرسانی دوره‌ای داده‌ها پشتیبانی از چند شهر هم‌زمان پشتیبانی از proxy و headless mode (Selenium / Puppeteer) ساختار ماژولار برای افزودن منابع جدید (مثل Yelp در آینده)

خروجی نمونه: اطلاعات پایه: id, title, address, latitude, longitude, phone, website, social_instagram, category, tags ریویوها: source, date, content, rating, items تصاویر: حداقل ۴ تصویر فرمت خروجی مورد انتظار سه فایل خروجی مجزا: businesses.csv – اطلاعات پایه رستوران‌ها reviews.csv – نظرات کاربران report.log – گزارش کرال (تعداد موفق/ناموفق، ارورها، زمان اجرا) همه‌ی داده‌ها باید مستقیم به دیتابیس MySQL وارد شوند.

مهارت‌های مورد نیاز: Python یا Node.js Web Scraping / Anti-ban handling مدیریت خطا و ریت لیمیت مدیریت داده و ذخیره‌سازی CSV/JSON تجربه کار با دیتابیس MySQL

مهارت ها:
Node.js
MySQL
پایتون (Python)
Web Scraping
JSON
فوری
برجسته
پایان فرصت ارسال پیشنهاد
18 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
نیاز به یک نفر به جهت ساخت api اینستاگرام پیج شخصیم

درود بر شما نیاز به یک شخص دارم که بتونه api دایرکت مسیج(DM) پیج اینستاگراممون رو بسازه و برام بفرسته. چون پروسه ی ساخت api اسون نیست و ریسک لیمیت شدن اکانت وجود داره، ابتدا از شخص درخواست میشه یک اکانت تست رو امتحان بکنه و api بهم بده... بعدش اکانت اصلی رو تقدیمشون میکنم

مهارت ها:
پایتون (Python)
Web Scraping
طراحی شبکه
Telegram APIs
برنامه نویسی
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها10

نیاز به یک نفر به جهت ساخت api اینستاگرام پیج شخصیم

درود بر شما نیاز به یک شخص دارم که بتونه api دایرکت مسیج(DM) پیج اینستاگراممون رو بسازه و برام بفرسته. چون پروسه ی ساخت api اسون نیست و ریسک لیمیت شدن اکانت وجود داره، ابتدا از شخص درخواست میشه یک اکانت تست رو امتحان بکنه و api بهم بده... بعدش اکانت اصلی رو تقدیمشون میکنم

مهارت ها:
پایتون (Python)
Web Scraping
طراحی شبکه
Telegram APIs
برنامه نویسی
پایان فرصت ارسال پیشنهاد
10 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
استخراج و تهیه مجموعه عکس برای محصولات وبسایت فروشگاهی

پروژه شامل تولید تصاویر صنعتی سبک، با کیفیت و ابعاد یکنواخت و بدون مشکل کپی‌رایت برای محصولات یک وبسایت فروشگاهی می باشد. خروجی پروژه تصاویر همراه با فایل اکسل مستند (حاوی پرامپت، مدل، و نام فایل‌ها) هست که به‌صورت مرحله‌ای تحویل و تسویه می‌شوند. در ادامه توضیح کامل اورده شده است. لطفا کامل و دقیق بررسی کنید 🧭 عنوان پروژه ایجاد و استانداردسازی مجموعه‌ای از تصاویر صنعتی با استفاده از هوش مصنوعی (AI Image Generation & Standardization Project) ____ 🎯 هدف پروژه هدف این پروژه تولید مجموعه‌ای بزرگ از تصاویر صنعتی با استفاده از هوش مصنوعی است تا تمام تصاویر: • از نظر ابعاد، سبک، رنگ و پس‌زمینه کاملاً هماهنگ باشند، • از نظر حقوقی (کپی‌رایت) کاملاً آزاد و قابل استفاده باشند، • و در نهایت قابل اتصال به پایگاه داده (Excel / Database) برای استفاده در وب‌سایت یا نرم‌افزار باشند. ____ 📊 مقیاس و منابع پروژه • تعداد کل تصاویر مورد نظر: عکسها بر اساس تعداد محصولات (بیش از 1000 محصول) • برای هر محصول بین ۵ تا ۱۰ عکس مورد نیاز است. • فهرست سایت‌های پیشنهادی برای جمع‌آوری اولیه تصاویر توسط کارفرما ارائه می‌شود. • فریلنسر پس از جمع‌آوری تصاویر اولیه، باید با استفاده از هوش مصنوعی آن‌ها را بازتولید کند تا از نظر بصری و حقوقی با استاندارد پروژه هماهنگ باشند. ____ 🧩 مراحل اجرای پروژه مرحله 1 — طراحی سبک و سیاست تصویری (Photo Policy & Style Guide) فریلنسر باید سبک و استاندارد کلی تصاویر را مشخص و رعایت کند. مشخصات فنی: • ابعاد: مربع 1×1 • حداکثر رزولوشن: 500 پیکسل ضلع بلند • حداکثر حجم فایل: 100 KB برای هر عکس • پس‌زمینه: سفید یا شفاف • فرمت: WebP • تعداد تصاویر برای هر محصول: ۵ تا ۱۰ عدد سبک تصویری: • نور و رنگ یکنواخت • بدون لوگو، واترمارک یا نوشته • ترکیب‌بندی مرکزی و تمیز • هماهنگی رنگی و نوری بین تمام تصاویر ____ مرحله 2 — جمع‌آوری اولیه و بازتولید با هوش مصنوعی در این مرحله، فریلنسر ابتدا تصاویر مرجع اولیه را از سایت‌های عمومی و منابع پیشنهادی جمع‌آوری می‌کند تا ظاهر و نوع محصول مشخص شود. سپس با استفاده از ابزارهای هوش مصنوعی مانند Midjourney، Leonardo AI، Firefly، DALL·E 3 یا ابزارهای مشابه، تصاویر را بازتولید (Re-generate) می‌کند تا: • از نظر کپی‌رایت کاملاً آزاد باشند، • و از نظر سبک و کیفیت، با استاندارد پروژه مطابقت داشته باشند. وظایف در این مرحله:

  1. جمع‌آوری عکس‌های مرجع از سایت‌های معرفی‌شده.
  2. طراحی پرامپت‌های دقیق و مناسب برای هر گروه محصول.
  3. تولید تصاویر نهایی با هوش مصنوعی.
  4. بهینه‌سازی حجم تصاویر (زیر 100 KB) بدون افت کیفیت.
  5. ثبت مشخصات مدل و پرامپت‌های استفاده‌شده برای هر عکس. ____ مرحله 3 — مستندسازی، متادیتا و خروجی نهایی تمام تصاویر تولیدشده باید دارای فایل متادیتا و جدول ثبت اطلاعات باشند. ساختار فایل Excel باید دقیقاً به صورت زیر باشد: Group | Product Code | Product Name | AI Model Used | License: AI-Generated | Date Created | Prompt | Pic1 Name | Pic2 Name | Pic3 Name | Pic4 Name | Pic5 Name ... توضیحات: • ستون‌های Pic1 تا PicN شامل نام فایل دقیق هر تصویر هستند. • ستون Prompt شامل متن پرامپت استفاده‌شده است. • ستون AI Model Used باید مدل دقیق هوش مصنوعی را ذکر کند. • هر تصویر باید حجمی کمتر از 100 KB داشته باشد. ____ 📦 تحویل نهایی پروژه فریلنسر باید در پایان کار، خروجی‌های زیر را ارائه دهد:
  6. فولدرهای گروه‌بندی‌شده برای محصولات
  7. تصاویر نهایی با فرمت WebP و حجم ≤ 100 KB
  8. فولدر جداگانه شامل تصاویر اولیه جمع‌آوری‌شده (قبل از بازتولید)
  9. فایل Excel شامل تمام اطلاعات، نام فایل‌ها و پرامپت‌ها
  10. گزارش نهایی (PDF یا Word) شامل: o مدل‌های هوش مصنوعی استفاده‌شده o پرامپت‌های نمونه o نکات کنترل کیفیت و هماهنگی ____ 💰 نحوه انجام و پرداخت (Milestones) • کار به‌صورت مرحله‌ای (Milestone) انجام می‌شود. • پس از پایان هر مرحله، خروجی بررسی می‌شود و در صورت تأیید، تسویه حساب همان بخش انجام خواهد شد. • کارفرما بر تمام مراحل پروژه نظارت فعال دارد تا کیفیت خروجی مطابق انتظار باشد. ____ 🤝 همکاری و تعامل ما به دنبال همکاری بلندمدت و حرفه‌ای هستیم و می‌خواهیم این پروژه با کیفیت بالا و هماهنگی کامل انجام شود. در فضای کاری پروژه، تعامل و پیشنهاد دادن آزاد است — در صورتی که فریلنسر ایده‌ای برای ساده‌تر، سریع‌تر یا دقیق‌تر انجام پروژه داشته باشد، می‌تواند در ابتدای کار آن را مطرح کند تا بهترین شیوه اجرا انتخاب شود.
مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
تست نرم افزار
Web Scraping
Debugging
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها14

استخراج و تهیه مجموعه عکس برای محصولات وبسایت فروشگاهی

پروژه شامل تولید تصاویر صنعتی سبک، با کیفیت و ابعاد یکنواخت و بدون مشکل کپی‌رایت برای محصولات یک وبسایت فروشگاهی می باشد. خروجی پروژه تصاویر همراه با فایل اکسل مستند (حاوی پرامپت، مدل، و نام فایل‌ها) هست که به‌صورت مرحله‌ای تحویل و تسویه می‌شوند. در ادامه توضیح کامل اورده شده است. لطفا کامل و دقیق بررسی کنید 🧭 عنوان پروژه ایجاد و استانداردسازی مجموعه‌ای از تصاویر صنعتی با استفاده از هوش مصنوعی (AI Image Generation & Standardization Project) ____ 🎯 هدف پروژه هدف این پروژه تولید مجموعه‌ای بزرگ از تصاویر صنعتی با استفاده از هوش مصنوعی است تا تمام تصاویر: • از نظر ابعاد، سبک، رنگ و پس‌زمینه کاملاً هماهنگ باشند، • از نظر حقوقی (کپی‌رایت) کاملاً آزاد و قابل استفاده باشند، • و در نهایت قابل اتصال به پایگاه داده (Excel / Database) برای استفاده در وب‌سایت یا نرم‌افزار باشند. ____ 📊 مقیاس و منابع پروژه • تعداد کل تصاویر مورد نظر: عکسها بر اساس تعداد محصولات (بیش از 1000 محصول) • برای هر محصول بین ۵ تا ۱۰ عکس مورد نیاز است. • فهرست سایت‌های پیشنهادی برای جمع‌آوری اولیه تصاویر توسط کارفرما ارائه می‌شود. • فریلنسر پس از جمع‌آوری تصاویر اولیه، باید با استفاده از هوش مصنوعی آن‌ها را بازتولید کند تا از نظر بصری و حقوقی با استاندارد پروژه هماهنگ باشند. ____ 🧩 مراحل اجرای پروژه مرحله 1 — طراحی سبک و سیاست تصویری (Photo Policy & Style Guide) فریلنسر باید سبک و استاندارد کلی تصاویر را مشخص و رعایت کند. مشخصات فنی: • ابعاد: مربع 1×1 • حداکثر رزولوشن: 500 پیکسل ضلع بلند • حداکثر حجم فایل: 100 KB برای هر عکس • پس‌زمینه: سفید یا شفاف • فرمت: WebP • تعداد تصاویر برای هر محصول: ۵ تا ۱۰ عدد سبک تصویری: • نور و رنگ یکنواخت • بدون لوگو، واترمارک یا نوشته • ترکیب‌بندی مرکزی و تمیز • هماهنگی رنگی و نوری بین تمام تصاویر ____ مرحله 2 — جمع‌آوری اولیه و بازتولید با هوش مصنوعی در این مرحله، فریلنسر ابتدا تصاویر مرجع اولیه را از سایت‌های عمومی و منابع پیشنهادی جمع‌آوری می‌کند تا ظاهر و نوع محصول مشخص شود. سپس با استفاده از ابزارهای هوش مصنوعی مانند Midjourney، Leonardo AI، Firefly، DALL·E 3 یا ابزارهای مشابه، تصاویر را بازتولید (Re-generate) می‌کند تا: • از نظر کپی‌رایت کاملاً آزاد باشند، • و از نظر سبک و کیفیت، با استاندارد پروژه مطابقت داشته باشند. وظایف در این مرحله:

  1. جمع‌آوری عکس‌های مرجع از سایت‌های معرفی‌شده.
  2. طراحی پرامپت‌های دقیق و مناسب برای هر گروه محصول.
  3. تولید تصاویر نهایی با هوش مصنوعی.
  4. بهینه‌سازی حجم تصاویر (زیر 100 KB) بدون افت کیفیت.
  5. ثبت مشخصات مدل و پرامپت‌های استفاده‌شده برای هر عکس. ____ مرحله 3 — مستندسازی، متادیتا و خروجی نهایی تمام تصاویر تولیدشده باید دارای فایل متادیتا و جدول ثبت اطلاعات باشند. ساختار فایل Excel باید دقیقاً به صورت زیر باشد: Group | Product Code | Product Name | AI Model Used | License: AI-Generated | Date Created | Prompt | Pic1 Name | Pic2 Name | Pic3 Name | Pic4 Name | Pic5 Name ... توضیحات: • ستون‌های Pic1 تا PicN شامل نام فایل دقیق هر تصویر هستند. • ستون Prompt شامل متن پرامپت استفاده‌شده است. • ستون AI Model Used باید مدل دقیق هوش مصنوعی را ذکر کند. • هر تصویر باید حجمی کمتر از 100 KB داشته باشد. ____ 📦 تحویل نهایی پروژه فریلنسر باید در پایان کار، خروجی‌های زیر را ارائه دهد:
  6. فولدرهای گروه‌بندی‌شده برای محصولات
  7. تصاویر نهایی با فرمت WebP و حجم ≤ 100 KB
  8. فولدر جداگانه شامل تصاویر اولیه جمع‌آوری‌شده (قبل از بازتولید)
  9. فایل Excel شامل تمام اطلاعات، نام فایل‌ها و پرامپت‌ها
  10. گزارش نهایی (PDF یا Word) شامل: o مدل‌های هوش مصنوعی استفاده‌شده o پرامپت‌های نمونه o نکات کنترل کیفیت و هماهنگی ____ 💰 نحوه انجام و پرداخت (Milestones) • کار به‌صورت مرحله‌ای (Milestone) انجام می‌شود. • پس از پایان هر مرحله، خروجی بررسی می‌شود و در صورت تأیید، تسویه حساب همان بخش انجام خواهد شد. • کارفرما بر تمام مراحل پروژه نظارت فعال دارد تا کیفیت خروجی مطابق انتظار باشد. ____ 🤝 همکاری و تعامل ما به دنبال همکاری بلندمدت و حرفه‌ای هستیم و می‌خواهیم این پروژه با کیفیت بالا و هماهنگی کامل انجام شود. در فضای کاری پروژه، تعامل و پیشنهاد دادن آزاد است — در صورتی که فریلنسر ایده‌ای برای ساده‌تر، سریع‌تر یا دقیق‌تر انجام پروژه داشته باشد، می‌تواند در ابتدای کار آن را مطرح کند تا بهترین شیوه اجرا انتخاب شود.
مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
تست نرم افزار
Web Scraping
Debugging
پایان فرصت ارسال پیشنهاد
14 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اسکریپت دانلود از آرشیو شبکه اجتماعی

با سلام نیازمند یک اسکریپت که از وب‌اپ شبکه های اجتماعی استفاده کرده و تمامی موزیک‌های موجود در کانال‌های مورد نظر را با نام آنها دانلود و در پوشه مقصد دسکتاپ سیو کند.

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Shell Script
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها14

اسکریپت دانلود از آرشیو شبکه اجتماعی

با سلام نیازمند یک اسکریپت که از وب‌اپ شبکه های اجتماعی استفاده کرده و تمامی موزیک‌های موجود در کانال‌های مورد نظر را با نام آنها دانلود و در پوشه مقصد دسکتاپ سیو کند.

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Shell Script
Web Scraping
پایان فرصت ارسال پیشنهاد
14 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
پروژه اسکریپت اسکرپر/استخراج از Google Maps با اتصال به API

سلام من یک ابزار تحت وب نیاز دارم که با اتصال به API، اطلاعات کسب‌ و کارهای Google Maps رو استخراج کنه و خروجی رو برای استفاده در ابزار دیگه اماده کنه. ورودی، میتواند ۲ فایل csv باشد یا یک کلمه کلیدی.

خروجی مورد انتظار

فرم جستجو با فیلترهای حرفه‌ای (امتیاز، ریویو، قیمت، موقعیت)

اتصال به API رسمی و دریافت نتایج Google Maps

ذخیره نتایج و نمایش آن‌ها به‌ صورت کارت یا جدول

امکان دانلود خروجی به فرمت Excel و NDJSON

ارسال داده‌ها به ابزار (API یا Webhook)

انتشار با REST API

مهارت ها:
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
الگوریتم
Google Maps API
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها12

پروژه اسکریپت اسکرپر/استخراج از Google Maps با اتصال به API

سلام من یک ابزار تحت وب نیاز دارم که با اتصال به API، اطلاعات کسب‌ و کارهای Google Maps رو استخراج کنه و خروجی رو برای استفاده در ابزار دیگه اماده کنه. ورودی، میتواند ۲ فایل csv باشد یا یک کلمه کلیدی.

خروجی مورد انتظار

فرم جستجو با فیلترهای حرفه‌ای (امتیاز، ریویو، قیمت، موقعیت)

اتصال به API رسمی و دریافت نتایج Google Maps

ذخیره نتایج و نمایش آن‌ها به‌ صورت کارت یا جدول

امکان دانلود خروجی به فرمت Excel و NDJSON

ارسال داده‌ها به ابزار (API یا Webhook)

انتشار با REST API

مهارت ها:
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
الگوریتم
Google Maps API
پایان فرصت ارسال پیشنهاد
12 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
ساخت ایجنت AI برای رصد اخبار حوزه کتاب + بات

ما قصد داریم یک سیستم در اختیار داشته باشیم که خبرهای مهم حوزه کتاب و نشر ایران که در منابع انگلیسی زبان بر روی اینترنت منتشر شده اند را جمع‌آوری کرده، آن را خلاصه نویسی، بازنویسی و ویرایش کند، و خروجی نهایی را به‌صورت محتوای انسانی و قابل‌فهم در یک سایت، یک کانال و یک بات منتشر کند.

این سیستم باید: جمع‌آوری خودکار خبرها از منابع معتبر (RSS/API/سوشال) داشته باشد. حذف خبرهای تکراری و عادی‌سازی داده‌ها انجام شود. اثر مستقیم و اثر غیرمستقیم (زنجیره علیت روی سایر بازارها) تشخیص داده شود. خبرها با تگ‌های موضوعی برچسب‌گذاری شوند. حافظه روندی داشته باشد (روزانه/هفتگی/ماهانه) خروجی نهایی به‌صورت غیررباتی و با متن انسانی (خلاصه خبر + تصویر مناسب + تیتر انتخابی + تحلیل کوتاه) تولید شود. در سایت مجله و کانال منتشر شود و در بات با فیلتر شخصی‌سازی (کاربر تگ‌های دلخواه را انتخاب کند) نوتیف ارسال شود. قابلیت Digest روزانه/هفتگی در بات داشته باشد. داشبورد ساده برای مدیریت خبرها، Rulebook، و گزارش‌ها ساخته شود.

ماژول‌های اصلی: جمع‌آوری از منابع مشخص و منابعی که حین جستجو پیدا می کند شاخص روزانه/هفتگی/ماهانه برای پیگیری خبرها تولید متن انسانی برای کانال و بات انتشار اتوماتیک با قالب ثابت انتخاب تگ‌ها، ارسال نوتیف لحظه‌ای و Digest، آرشیو خبرها ذخیره‌سازی خبرها، تگ‌ها، کاربران، و لاگ‌ها مانیتورینگ، و گزارش دهی ساده

ویژگی‌های کلیدی فنی: بات کانال پابلیشر NLP ساده برای خلاصه‌سازی/تگ‌گذاری Docker برای دپلوی راحت ساختار ماژولار برای اضافه‌کردن ML در آینده

انتظارات از فریلنسر: طراحی معماری کامل + پیاده‌سازی MVP تا نسخه اولیه عملیاتی مستندسازی فنی و آموزشی برای تیم داخلی

تحویل در فازهای مشخص: جمع‌آوری و پردازش خبر + دیتابیس اثرگذاری + خروجی کانال بات با فیلتر تگ و نوتیف حافظه روندی + Digest روزانه پنل ساده مدیریت

خروجی مورد انتظار: سورس‌کد کامل و تمیز با داکیومنت دیتابیس ساختاریافته سیستم پایدار و قابل‌گسترش تحویل فازبندی‌شده با تست نهایی

مهارت ها:
NoSQL Couch and Mongo
پایتون (Python)
Web Scraping
Telegram APIs
هوش مصنوعی (AI)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها5

ساخت ایجنت AI برای رصد اخبار حوزه کتاب + بات

ما قصد داریم یک سیستم در اختیار داشته باشیم که خبرهای مهم حوزه کتاب و نشر ایران که در منابع انگلیسی زبان بر روی اینترنت منتشر شده اند را جمع‌آوری کرده، آن را خلاصه نویسی، بازنویسی و ویرایش کند، و خروجی نهایی را به‌صورت محتوای انسانی و قابل‌فهم در یک سایت، یک کانال و یک بات منتشر کند.

این سیستم باید: جمع‌آوری خودکار خبرها از منابع معتبر (RSS/API/سوشال) داشته باشد. حذف خبرهای تکراری و عادی‌سازی داده‌ها انجام شود. اثر مستقیم و اثر غیرمستقیم (زنجیره علیت روی سایر بازارها) تشخیص داده شود. خبرها با تگ‌های موضوعی برچسب‌گذاری شوند. حافظه روندی داشته باشد (روزانه/هفتگی/ماهانه) خروجی نهایی به‌صورت غیررباتی و با متن انسانی (خلاصه خبر + تصویر مناسب + تیتر انتخابی + تحلیل کوتاه) تولید شود. در سایت مجله و کانال منتشر شود و در بات با فیلتر شخصی‌سازی (کاربر تگ‌های دلخواه را انتخاب کند) نوتیف ارسال شود. قابلیت Digest روزانه/هفتگی در بات داشته باشد. داشبورد ساده برای مدیریت خبرها، Rulebook، و گزارش‌ها ساخته شود.

ماژول‌های اصلی: جمع‌آوری از منابع مشخص و منابعی که حین جستجو پیدا می کند شاخص روزانه/هفتگی/ماهانه برای پیگیری خبرها تولید متن انسانی برای کانال و بات انتشار اتوماتیک با قالب ثابت انتخاب تگ‌ها، ارسال نوتیف لحظه‌ای و Digest، آرشیو خبرها ذخیره‌سازی خبرها، تگ‌ها، کاربران، و لاگ‌ها مانیتورینگ، و گزارش دهی ساده

ویژگی‌های کلیدی فنی: بات کانال پابلیشر NLP ساده برای خلاصه‌سازی/تگ‌گذاری Docker برای دپلوی راحت ساختار ماژولار برای اضافه‌کردن ML در آینده

انتظارات از فریلنسر: طراحی معماری کامل + پیاده‌سازی MVP تا نسخه اولیه عملیاتی مستندسازی فنی و آموزشی برای تیم داخلی

تحویل در فازهای مشخص: جمع‌آوری و پردازش خبر + دیتابیس اثرگذاری + خروجی کانال بات با فیلتر تگ و نوتیف حافظه روندی + Digest روزانه پنل ساده مدیریت

خروجی مورد انتظار: سورس‌کد کامل و تمیز با داکیومنت دیتابیس ساختاریافته سیستم پایدار و قابل‌گسترش تحویل فازبندی‌شده با تست نهایی

مهارت ها:
NoSQL Couch and Mongo
پایتون (Python)
Web Scraping
Telegram APIs
هوش مصنوعی (AI)
پایان فرصت ارسال پیشنهاد
5 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بیلبورد شده
ساخت ربات پیامرسان در شبکه های اجتماعی

یک ربات با پایتون نوشته بشه برای ارسال متن، تصویر، صدا و ویدیو به اعضای گروههای واتساپی و اینستاگرامی خودم مهم اینه که پروتوکولهای واتساپ و اینستاگرام رعایت بشه تا موجب مسدود شدن ربات نشه

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
الگوریتم
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها11

بیلبورد شده
ساخت ربات پیامرسان در شبکه های اجتماعی

یک ربات با پایتون نوشته بشه برای ارسال متن، تصویر، صدا و ویدیو به اعضای گروههای واتساپی و اینستاگرامی خودم مهم اینه که پروتوکولهای واتساپ و اینستاگرام رعایت بشه تا موجب مسدود شدن ربات نشه

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
الگوریتم
پایان فرصت ارسال پیشنهاد
11 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
توسعه سیستم رصد خبرها با تحلیل اثر بر بازارها + بات

ما قصد داریم یک سیستم کامل بسازیم که خبرهای مهم سیاسی–اقتصادی (ایران و جهان) را جمع‌آوری کرده، اثر آن‌ها را بر بازارهای مختلف (مستقیم و غیرمستقیم) تحلیل کند، و خروجی نهایی را به‌صورت محتوای انسانی و قابل‌فهم در یک کانال و یک بات منتشر کند.

این سیستم باید:

جمع‌آوری خودکار خبرها از منابع معتبر (RSS/API/سوشال) داشته باشد.

حذف خبرهای تکراری و عادی‌سازی داده‌ها انجام شود.

با Rulebook اولیه، اثر هر خبر بر بازارها (دلار، نفت، طلا، سهام، کریپتو، ارز ایران و...) با شدت/جهت/زمان‌بندی مشخص شود.

اثر مستقیم و اثر غیرمستقیم (زنجیره علیت روی سایر بازارها) تشخیص داده شود.

خبرها با تگ‌های موضوعی (FOMC، تورم، اوپک، تحریم‌ها، سیاست‌های ارزی،...) برچسب‌گذاری شوند.

حافظه روندی داشته باشد (روزانه/هفتگی/ماهانه) تا سوگیری کلی مثبت/منفی هر موضوع محاسبه و در تحلیل‌ها لحاظ شود.

خروجی نهایی به‌صورت غیررباتی و با متن انسانی (خلاصه خبر + چرا مهم است + اثر بازار + تحلیل کوتاه) تولید شود.

در کانال منتشر شود و در بات با فیلتر شخصی‌سازی (کاربر تگ‌های دلخواه را انتخاب کند) نوتیف ارسال شود.

قابلیت Digest روزانه/هفتگی در بات داشته باشد.

داشبورد ساده برای مدیریت خبرها، Rulebook، و گزارش‌ها ساخته شود.

ماژول‌های اصلی:

News Collector: جمع‌آوری از RSS/API با Dedup و Normalization

Impact Engine: تحلیل اثر مستقیم و غیرمستقیم بر بازارها با Rulebook اولیه

Context Memory: شاخص روزانه/هفتگی/ماهانه برای سوگیری خبرها

Summarizer & Writer: تولید متن انسانی برای کانال و بات

Telegram Channel Publisher: انتشار اتوماتیک با قالب ثابت

Telegram Bot: انتخاب تگ‌ها، ارسال نوتیف لحظه‌ای و Digest، آرشیو خبرها

Database & API Layer: ذخیره‌سازی خبرها، تگ‌ها، کاربران، و لاگ‌ها

Admin Panel (ساده): مدیریت Rulebook، مانیتورینگ، و گزارش KPI

ویژگی‌های کلیدی فنی:

Backend: Python (FastAPI)، Celery/Redis برای تسک‌ها

Database: PostgreSQL (داده اصلی)، ClickHouse یا مشابه برای لاگ تحلیلی

Telegram Bot API + کانال پابلیشر

NLP ساده برای خلاصه‌سازی/تگ‌گذاری (Rule-based در نسخه اول)

Docker برای دپلوی راحت

ساختار ماژولار برای اضافه‌کردن ML در آینده

انتظارات از فریلنسر:

طراحی معماری کامل + پیاده‌سازی MVP تا نسخه اولیه عملیاتی

مستندسازی فنی و آموزشی برای تیم داخلی

تحویل در فازهای مشخص:

جمع‌آوری و پردازش خبر + دیتابیس

Rulebook اثرگذاری + خروجی کانال

بات با فیلتر تگ و نوتیف

حافظه روندی + Digest روزانه

پنل ساده مدیریت

خروجی مورد انتظار:

سورس‌کد کامل و تمیز با داکیومنت

دیتابیس ساختاریافته

سیستم پایدار و قابل‌گسترش

تحویل فازبندی‌شده با تست نهایی

مهارت‌های مورد نیاز:

Python (FastAPI, Celery, NLP basics)

PostgreSQL / ClickHouse

Telegram Bot API

API Integration (RSS, REST APIs)

Docker & Basic DevOps

تجربه در سیستم‌های تحلیلی و اتوماسیون خبری مزیت است

مهارت ها:
NoSQL Couch and Mongo
پایتون (Python)
Web Scraping
Telegram APIs
هوش مصنوعی (AI)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها9

توسعه سیستم رصد خبرها با تحلیل اثر بر بازارها + بات

ما قصد داریم یک سیستم کامل بسازیم که خبرهای مهم سیاسی–اقتصادی (ایران و جهان) را جمع‌آوری کرده، اثر آن‌ها را بر بازارهای مختلف (مستقیم و غیرمستقیم) تحلیل کند، و خروجی نهایی را به‌صورت محتوای انسانی و قابل‌فهم در یک کانال و یک بات منتشر کند.

این سیستم باید:

جمع‌آوری خودکار خبرها از منابع معتبر (RSS/API/سوشال) داشته باشد.

حذف خبرهای تکراری و عادی‌سازی داده‌ها انجام شود.

با Rulebook اولیه، اثر هر خبر بر بازارها (دلار، نفت، طلا، سهام، کریپتو، ارز ایران و...) با شدت/جهت/زمان‌بندی مشخص شود.

اثر مستقیم و اثر غیرمستقیم (زنجیره علیت روی سایر بازارها) تشخیص داده شود.

خبرها با تگ‌های موضوعی (FOMC، تورم، اوپک، تحریم‌ها، سیاست‌های ارزی،...) برچسب‌گذاری شوند.

حافظه روندی داشته باشد (روزانه/هفتگی/ماهانه) تا سوگیری کلی مثبت/منفی هر موضوع محاسبه و در تحلیل‌ها لحاظ شود.

خروجی نهایی به‌صورت غیررباتی و با متن انسانی (خلاصه خبر + چرا مهم است + اثر بازار + تحلیل کوتاه) تولید شود.

در کانال منتشر شود و در بات با فیلتر شخصی‌سازی (کاربر تگ‌های دلخواه را انتخاب کند) نوتیف ارسال شود.

قابلیت Digest روزانه/هفتگی در بات داشته باشد.

داشبورد ساده برای مدیریت خبرها، Rulebook، و گزارش‌ها ساخته شود.

ماژول‌های اصلی:

News Collector: جمع‌آوری از RSS/API با Dedup و Normalization

Impact Engine: تحلیل اثر مستقیم و غیرمستقیم بر بازارها با Rulebook اولیه

Context Memory: شاخص روزانه/هفتگی/ماهانه برای سوگیری خبرها

Summarizer & Writer: تولید متن انسانی برای کانال و بات

Telegram Channel Publisher: انتشار اتوماتیک با قالب ثابت

Telegram Bot: انتخاب تگ‌ها، ارسال نوتیف لحظه‌ای و Digest، آرشیو خبرها

Database & API Layer: ذخیره‌سازی خبرها، تگ‌ها، کاربران، و لاگ‌ها

Admin Panel (ساده): مدیریت Rulebook، مانیتورینگ، و گزارش KPI

ویژگی‌های کلیدی فنی:

Backend: Python (FastAPI)، Celery/Redis برای تسک‌ها

Database: PostgreSQL (داده اصلی)، ClickHouse یا مشابه برای لاگ تحلیلی

Telegram Bot API + کانال پابلیشر

NLP ساده برای خلاصه‌سازی/تگ‌گذاری (Rule-based در نسخه اول)

Docker برای دپلوی راحت

ساختار ماژولار برای اضافه‌کردن ML در آینده

انتظارات از فریلنسر:

طراحی معماری کامل + پیاده‌سازی MVP تا نسخه اولیه عملیاتی

مستندسازی فنی و آموزشی برای تیم داخلی

تحویل در فازهای مشخص:

جمع‌آوری و پردازش خبر + دیتابیس

Rulebook اثرگذاری + خروجی کانال

بات با فیلتر تگ و نوتیف

حافظه روندی + Digest روزانه

پنل ساده مدیریت

خروجی مورد انتظار:

سورس‌کد کامل و تمیز با داکیومنت

دیتابیس ساختاریافته

سیستم پایدار و قابل‌گسترش

تحویل فازبندی‌شده با تست نهایی

مهارت‌های مورد نیاز:

Python (FastAPI, Celery, NLP basics)

PostgreSQL / ClickHouse

Telegram Bot API

API Integration (RSS, REST APIs)

Docker & Basic DevOps

تجربه در سیستم‌های تحلیلی و اتوماسیون خبری مزیت است

مهارت ها:
NoSQL Couch and Mongo
پایتون (Python)
Web Scraping
Telegram APIs
هوش مصنوعی (AI)
بی‌نهایت
فوری
برجسته
پایان فرصت ارسال پیشنهاد
9 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه