پونیشا

لیست پروژه‌های Web Scraping

تعداد یافته ها:232 پروژه

پروژه‌های Web Scraping


Web Scraping
تعداد یافته ها: 232 پروژه
مرتب سازی بر اساس

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
توسعه ایجنت هوش مصنوعی پاسخ‌گوی مشتری

نیازمند تیم/توسعه‌دهنده حرفه‌ای برای ساخت ایجنت هوش مصنوعی مدیریت مشتری

ما به دنبال یک تیم یا توسعه‌دهنده باتجربه در زمینه AI Agent و اتوماسیون هوشمند هستیم تا یک سیستم یکپارچه مدیریت مشتری و پاسخ‌دهی خودکار طراحی و پیاده‌سازی کنند. قابلیت‌های موردنیاز شامل موارد زیر است:

قابلیت‌های اصلی پروژه:

استخراج اطلاعات درخواست مشتری از ایمیل

دریافت و به‌روزرسانی روزانه موجودی محصولات از وب‌سایت فروشنده

بررسی موجود بودن محصولات و پیشنهاد محصولات مشابه

تولید پاسخ مناسب بر اساس سؤال مشتری و وضعیت موجودی

ارسال پاسخ از طریق Email/SMS API ظرف یک زمان مشخص بطور مثال کمتر از ۵ دقیقه

ارسال پیام‌های پیگیری در صورت عدم پاسخ مشتری بر اساس زمان‌بندی قابل تنظیم

پاسخ‌دهی به تمام سؤالات مرتبط با محصول در موجودی

ذخیره‌سازی و مدیریت کامل مکالمات در پایگاه داده

ثبت قرار ملاقات‌ها در تقویم

تولید خلاصه گزارش برای کارشناس فروش

پیگیری مشتریان مشابه با زمان‌بندی دلخواه تا دریافت دستور توقف

ایجاد چت‌بات سایت متصل به ایجنت و هماهنگ با تمامی عملکردهای بالا

امکان افزودن قوانین و دستورالعمل‌های سفارشی توسط فروشنده

تنظیم روزها و ساعات کاری ایجنت

داشبورد اول برای فروشنده شامل مکالمات، فعالیت‌ها، تقویم، فیلترها، نمودارها و درگاه پرداخت

داشبورد دوم برای مدیریت (Admin) برای کنترل کاربران و اشتراک‌ها

مهارت‌های مورد انتظار:

تجربه ثابت‌شده در ساخت AI Agents و LLM Integration و RAG

تسلط به Vector Database و امکان جستجو با کمک AI

تسلط به API‌ ایمیل و SMS

توانایی وب‌اسکرپینگ و مدیریت پایگاه داده

تجربه ساخت داشبوردهای حرفه‌ای (React/Next/Vue یا داشبوردهای پیچیده در وردپرس با پلاگین اختصاصی و REST API)

مهارت با Python یا Node.js

آشنایی با معماری سیستم‌های مقیاس‌پذیر

شرایط انتخاب فریلنسر / تیم (بسیار مهم):

قبل از شروع پروژه اصلی، یک آزمون کوچک برای ارزیابی موارد زیر انجام خواهد شد:

کیفیت کدنویسی

توانایی حل مسئله

سرعت انجام کار

میزان درک از منطق هوش مصنوعی

نحوه ارتباط و گزارش‌دهی

فقط فریلنسرها یا تیم‌هایی که این مرحله را با موفقیت طی کنند، برای اجرای پروژه کامل انتخاب می‌شوند.

مهارت ها:
Node.js
پایتون (Python)
Web Scraping
هوش مصنوعی (AI)
فرصت انتخاب
پیشنهادها31

توسعه ایجنت هوش مصنوعی پاسخ‌گوی مشتری

نیازمند تیم/توسعه‌دهنده حرفه‌ای برای ساخت ایجنت هوش مصنوعی مدیریت مشتری

ما به دنبال یک تیم یا توسعه‌دهنده باتجربه در زمینه AI Agent و اتوماسیون هوشمند هستیم تا یک سیستم یکپارچه مدیریت مشتری و پاسخ‌دهی خودکار طراحی و پیاده‌سازی کنند. قابلیت‌های موردنیاز شامل موارد زیر است:

قابلیت‌های اصلی پروژه:

استخراج اطلاعات درخواست مشتری از ایمیل

دریافت و به‌روزرسانی روزانه موجودی محصولات از وب‌سایت فروشنده

بررسی موجود بودن محصولات و پیشنهاد محصولات مشابه

تولید پاسخ مناسب بر اساس سؤال مشتری و وضعیت موجودی

ارسال پاسخ از طریق Email/SMS API ظرف یک زمان مشخص بطور مثال کمتر از ۵ دقیقه

ارسال پیام‌های پیگیری در صورت عدم پاسخ مشتری بر اساس زمان‌بندی قابل تنظیم

پاسخ‌دهی به تمام سؤالات مرتبط با محصول در موجودی

ذخیره‌سازی و مدیریت کامل مکالمات در پایگاه داده

ثبت قرار ملاقات‌ها در تقویم

تولید خلاصه گزارش برای کارشناس فروش

پیگیری مشتریان مشابه با زمان‌بندی دلخواه تا دریافت دستور توقف

ایجاد چت‌بات سایت متصل به ایجنت و هماهنگ با تمامی عملکردهای بالا

امکان افزودن قوانین و دستورالعمل‌های سفارشی توسط فروشنده

تنظیم روزها و ساعات کاری ایجنت

داشبورد اول برای فروشنده شامل مکالمات، فعالیت‌ها، تقویم، فیلترها، نمودارها و درگاه پرداخت

داشبورد دوم برای مدیریت (Admin) برای کنترل کاربران و اشتراک‌ها

مهارت‌های مورد انتظار:

تجربه ثابت‌شده در ساخت AI Agents و LLM Integration و RAG

تسلط به Vector Database و امکان جستجو با کمک AI

تسلط به API‌ ایمیل و SMS

توانایی وب‌اسکرپینگ و مدیریت پایگاه داده

تجربه ساخت داشبوردهای حرفه‌ای (React/Next/Vue یا داشبوردهای پیچیده در وردپرس با پلاگین اختصاصی و REST API)

مهارت با Python یا Node.js

آشنایی با معماری سیستم‌های مقیاس‌پذیر

شرایط انتخاب فریلنسر / تیم (بسیار مهم):

قبل از شروع پروژه اصلی، یک آزمون کوچک برای ارزیابی موارد زیر انجام خواهد شد:

کیفیت کدنویسی

توانایی حل مسئله

سرعت انجام کار

میزان درک از منطق هوش مصنوعی

نحوه ارتباط و گزارش‌دهی

فقط فریلنسرها یا تیم‌هایی که این مرحله را با موفقیت طی کنند، برای اجرای پروژه کامل انتخاب می‌شوند.

مهارت ها:
Node.js
پایتون (Python)
Web Scraping
هوش مصنوعی (AI)
بی‌نهایت
فوری
برجسته
31 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
اسکرپ توییتر X

به فردی نیاز داریم که بتونه کدی بنویسه که کلمه کلیدی بگیره و همه توییت‌ها با اون موضوع رو برامون اسکرپ کنه! دقت کنید که همه توییت‌ها به همراه تاریخ انتشارشون رو لازم داریم

مهارت ها:
پایتون (Python)
Web Scraping
برنامه نویسی
فرصت انتخاب
پیشنهادها25

اسکرپ توییتر X

به فردی نیاز داریم که بتونه کدی بنویسه که کلمه کلیدی بگیره و همه توییت‌ها با اون موضوع رو برامون اسکرپ کنه! دقت کنید که همه توییت‌ها به همراه تاریخ انتشارشون رو لازم داریم

مهارت ها:
پایتون (Python)
Web Scraping
برنامه نویسی
بی‌نهایت
25 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
طراحی سایت فروش خدمات شبکه های اجتماعی

سلام ما میخواهیم یک وبسایتی رو راه اندازی کنیم که در اون بتونیم خدمات شبکه های اجتماعی رو به فروش برسونیم مانند فالوور و لایک و ویو و ... اما خب از انجایی که پروژه های اماده این چنینی زیاد هستند و ما نمیخواهیم رابط کاربری تکراری داشته باشیم میخواهیم یک سایت عالی از هر نظر داشته باشیم. یک ایده ای داریم که که نمونه خارجی ان موجود است و سفارش گیری ان طوری است که مثلا برای سفارش لایک وقتی مشتری آیدی رو وارد میکنه کل پست های پیج نمایش داده میشن و کاربر میتونه پست رو انتخاب کنه و ثبت سفارش رو انجام بده و برای فالوور هم پیج کاربر رو نمایش بده اینجوری خیال کاربر خیلی راحت میشه و با اطمینان نسبت به سفارش اقدام میکنه حالا این روش نیازمند یک متخصص به تمام معناست که بتونه از پس api اینستاگرام بر بیاد و راهش رو رفته باشه که به راحتی بتونه دیتا رو راحت بگیره بدون اینکه اینستاگرام اون رو محدود کنه چون نمونه خارجی دقیقا همون کار رو میکنه . با توجه به توضیحات و اینکه صفر تا صد پروژه باید کد نویسی بشه و یکسری چالش ها باید حل بشوند اگر در این زمینه تجربه لازمه رو دارید اعلام امادگی کنید تا در جهت به سر انجام رسیدن پروژه با هم همکاری کنیم.

مهارت ها:
Node.js
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
برنامه نویسی تحت وب
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها29

طراحی سایت فروش خدمات شبکه های اجتماعی

سلام ما میخواهیم یک وبسایتی رو راه اندازی کنیم که در اون بتونیم خدمات شبکه های اجتماعی رو به فروش برسونیم مانند فالوور و لایک و ویو و ... اما خب از انجایی که پروژه های اماده این چنینی زیاد هستند و ما نمیخواهیم رابط کاربری تکراری داشته باشیم میخواهیم یک سایت عالی از هر نظر داشته باشیم. یک ایده ای داریم که که نمونه خارجی ان موجود است و سفارش گیری ان طوری است که مثلا برای سفارش لایک وقتی مشتری آیدی رو وارد میکنه کل پست های پیج نمایش داده میشن و کاربر میتونه پست رو انتخاب کنه و ثبت سفارش رو انجام بده و برای فالوور هم پیج کاربر رو نمایش بده اینجوری خیال کاربر خیلی راحت میشه و با اطمینان نسبت به سفارش اقدام میکنه حالا این روش نیازمند یک متخصص به تمام معناست که بتونه از پس api اینستاگرام بر بیاد و راهش رو رفته باشه که به راحتی بتونه دیتا رو راحت بگیره بدون اینکه اینستاگرام اون رو محدود کنه چون نمونه خارجی دقیقا همون کار رو میکنه . با توجه به توضیحات و اینکه صفر تا صد پروژه باید کد نویسی بشه و یکسری چالش ها باید حل بشوند اگر در این زمینه تجربه لازمه رو دارید اعلام امادگی کنید تا در جهت به سر انجام رسیدن پروژه با هم همکاری کنیم.

مهارت ها:
Node.js
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
برنامه نویسی تحت وب
پایان فرصت ارسال پیشنهاد
29 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
متمایز
حرفه‌ای
تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

عنوان پروژه: تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

توضیحات پروژه: هدف این پروژه توسعه یک سیستم کاملاً خودکار است که قابلیت‌های تولید، دسته‌بندی و انتشار محتوای مرتبط با فعالیت‌های سایت شرکت را به صورت روزانه دارد. این سیستم بر روی تکنولوژی‌های ن8n برای مدیریت جریان کار، هوش مصنوعی برای تولید متن و تصویر و پایگاه داده برای ذخیره و مدیریت محتوا مبتنی خواهد بود. محتوا به صورت همزمان در وب‌سایت وردپرسی و شبکه‌های اجتماعی (از جمله اینستاگرام، یوتیوب وپیام رسان خارجی) منتشر خواهد شد و لازم است تا کاملاً جذاب و انسانی باشد.

ویژگی‌ها و عملکرد مورد انتظار:

  • ورودی و منابع داده:

    • اتصال به حداقل ۳ مدل هوش مصنوعی برای تولید متن و تصویر.
    • تحلیل موضوعات و جمع‌آوری داده‌ها از منابع مرتبط.
    • پایگاه داده مرکزی برای ذخیره و مدیریت تمام محتوا.
  • اتوماسیون با n8n:

    • جمع‌آوری موضوعات و داده‌ها.
    • تولید محتوای انسانی شامل متن و تصویر.
    • دسته‌بندی محتوا مطابق با ساختار سایت وردپرسی.
    • انتشار خودکار در سایت و شبکه‌های اجتماعی.
  • تولید محتوا:

    • متن: طبیعی، جذاب، مطابق با SEO و مرتبط با حوزه فعالیت.
    • تصاویر و گرافیک: کیفیت بالا و مرتبط با محتوا، مطابق با سبک بصری برند.
    • شبکه‌های اجتماعی: کپشن‌های کوتاه و جذاب برای اینستاگرام و پیام رسان خارجی و قالب ویدئو کوتاه برای یوتیوب

ویژگی‌های فنی:

  • اتصال API به وردپرس، اینستاگرام، پیام رسان خارجی و یوتیوب.
  • قابلیت مشاهده و ویرایش محتوا قبل از انتشار.
  • امنیت و مدیریت دسترسی مناسب برای APIها و داده‌ها.
  • مقیاس‌پذیری برای افزایش حجم محتوا در آینده.

خروجی مورد انتظار:

  • انتشار روزانه محتوا در سایت و شبکه‌های اجتماعی.
  • تولید متن‌های انسانی و تصاویر حرفه‌ای آماده مصرف.
  • ارائه گزارش روزانه یا هفتگی از فعالیت‌ها و محتوای تولید شده.

مهارت‌ها و تخصص‌های مورد نیاز فریلنسر:

  • تجربه کار با n8n و طراحی و ساخت اتوماسیون.
  • توانایی کار با هوش مصنوعی برای تولید متن و تصویر (OpenAI یا مدل‌های مشابه).
  • تسلط به وردپرس و REST API آن.
  • توانایی اتصال و مدیریت APIهای شبکه‌های اجتماعی (اینستاگرام، پیام رسان خارجی، یوتیوب).
  • تجربه در طراحی پایگاه داده برای ذخیره و مدیریت محتوای تولید شده.
  • آشنایی با اصول SEO و تولید محتوا با رویکرد انسانی.

زمان‌بندی پیشنهادی:

  • فاز طراحی ۱ هفته.

توجه: با توجه به نوع ثبت پروژه، ارسال شماره تماس جهت هماهنگی الزامی می‌باشد. همچنین، توضیحات و فایل‌های JSON و PDF مربوط به پروژه و توضیحات با هوش مصنوعی جهت راه‌اندازی موجود است.

با تشکر از توجه شما.
دسته‌بندی پروژه: موارد دیگر

مهارت ها:
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
هوش مصنوعی (AI)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها7

تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

عنوان پروژه: تولید و انتشار محتوای وب‌سایت با n8n و هوش مصنوعی

توضیحات پروژه: هدف این پروژه توسعه یک سیستم کاملاً خودکار است که قابلیت‌های تولید، دسته‌بندی و انتشار محتوای مرتبط با فعالیت‌های سایت شرکت را به صورت روزانه دارد. این سیستم بر روی تکنولوژی‌های ن8n برای مدیریت جریان کار، هوش مصنوعی برای تولید متن و تصویر و پایگاه داده برای ذخیره و مدیریت محتوا مبتنی خواهد بود. محتوا به صورت همزمان در وب‌سایت وردپرسی و شبکه‌های اجتماعی (از جمله اینستاگرام، یوتیوب وپیام رسان خارجی) منتشر خواهد شد و لازم است تا کاملاً جذاب و انسانی باشد.

ویژگی‌ها و عملکرد مورد انتظار:

  • ورودی و منابع داده:

    • اتصال به حداقل ۳ مدل هوش مصنوعی برای تولید متن و تصویر.
    • تحلیل موضوعات و جمع‌آوری داده‌ها از منابع مرتبط.
    • پایگاه داده مرکزی برای ذخیره و مدیریت تمام محتوا.
  • اتوماسیون با n8n:

    • جمع‌آوری موضوعات و داده‌ها.
    • تولید محتوای انسانی شامل متن و تصویر.
    • دسته‌بندی محتوا مطابق با ساختار سایت وردپرسی.
    • انتشار خودکار در سایت و شبکه‌های اجتماعی.
  • تولید محتوا:

    • متن: طبیعی، جذاب، مطابق با SEO و مرتبط با حوزه فعالیت.
    • تصاویر و گرافیک: کیفیت بالا و مرتبط با محتوا، مطابق با سبک بصری برند.
    • شبکه‌های اجتماعی: کپشن‌های کوتاه و جذاب برای اینستاگرام و پیام رسان خارجی و قالب ویدئو کوتاه برای یوتیوب

ویژگی‌های فنی:

  • اتصال API به وردپرس، اینستاگرام، پیام رسان خارجی و یوتیوب.
  • قابلیت مشاهده و ویرایش محتوا قبل از انتشار.
  • امنیت و مدیریت دسترسی مناسب برای APIها و داده‌ها.
  • مقیاس‌پذیری برای افزایش حجم محتوا در آینده.

خروجی مورد انتظار:

  • انتشار روزانه محتوا در سایت و شبکه‌های اجتماعی.
  • تولید متن‌های انسانی و تصاویر حرفه‌ای آماده مصرف.
  • ارائه گزارش روزانه یا هفتگی از فعالیت‌ها و محتوای تولید شده.

مهارت‌ها و تخصص‌های مورد نیاز فریلنسر:

  • تجربه کار با n8n و طراحی و ساخت اتوماسیون.
  • توانایی کار با هوش مصنوعی برای تولید متن و تصویر (OpenAI یا مدل‌های مشابه).
  • تسلط به وردپرس و REST API آن.
  • توانایی اتصال و مدیریت APIهای شبکه‌های اجتماعی (اینستاگرام، پیام رسان خارجی، یوتیوب).
  • تجربه در طراحی پایگاه داده برای ذخیره و مدیریت محتوای تولید شده.
  • آشنایی با اصول SEO و تولید محتوا با رویکرد انسانی.

زمان‌بندی پیشنهادی:

  • فاز طراحی ۱ هفته.

توجه: با توجه به نوع ثبت پروژه، ارسال شماره تماس جهت هماهنگی الزامی می‌باشد. همچنین، توضیحات و فایل‌های JSON و PDF مربوط به پروژه و توضیحات با هوش مصنوعی جهت راه‌اندازی موجود است.

با تشکر از توجه شما.
دسته‌بندی پروژه: موارد دیگر

مهارت ها:
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
هوش مصنوعی (AI)
بی‌نهایت
فوری
برجسته
متمایز
حرفه‌ای
پایان فرصت ارسال پیشنهاد
7 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
برجسته
ایجاد سیستم وب اسکرپینگ Web scraping چند وب سایت

سلام چند وب سایت خارجی فروشگاهی وجود داره، نیاز داریم بوسیله ابزار های موجود یا برنامه نویسی یک نرم افزار بتونیم یه سری دیتا ها رو از این وب سایت ها بصورت روزانه استخراج کنیم . نیاز هست فریلنسر محترم تجربه و تخصص کافی در وب اسکرپینگ داشته باشه و به ابزار ها و راه حل های پیشرفته اون اشنایی کافی داشته باشه .

مهارت ها:
تست نرم افزار
Web Scraping
Database Programming
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها26

ایجاد سیستم وب اسکرپینگ Web scraping چند وب سایت

سلام چند وب سایت خارجی فروشگاهی وجود داره، نیاز داریم بوسیله ابزار های موجود یا برنامه نویسی یک نرم افزار بتونیم یه سری دیتا ها رو از این وب سایت ها بصورت روزانه استخراج کنیم . نیاز هست فریلنسر محترم تجربه و تخصص کافی در وب اسکرپینگ داشته باشه و به ابزار ها و راه حل های پیشرفته اون اشنایی کافی داشته باشه .

مهارت ها:
تست نرم افزار
Web Scraping
Database Programming
برجسته
پایان فرصت ارسال پیشنهاد
26 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اینتگریت کردن سرویس Changedetection.io با سیستم داخلی

توضیحات پروژه: ما یک اشتراک از سرویس Changedetection.io تهیه کرده‌ایم و قصد داریم آن را با سیستم داخلی‌مان یکپارچه کنیم. هدف ما این است که تغییرات صفحات مانیتور شده در این سرویس، به‌صورت خودکار در سیستم ما ثبت و قابل استفاده باشد.

جزئیات مورد نیاز: اتصال به API یا Webhook سرویس Changedetection.io دریافت داده‌های مربوط به تغییر صفحات (diff / triggers / notifications) ارسال و ذخیره این داده‌ها در سیستم داخلی ما (Back-end موجود است و API داخلی آماده است)

مهارت‌های مورد نیاز: تسلط به Python یا JavaScript (Node.js) تجربه کار با REST API و Webhookها آشنایی با مفاهیم Integration بین سرویس‌ها آشنایی با دیتابیس‌ها (آشنایی با PostgreSQL مزیت محسوب می‌شود) توانایی نوشتن کد تمیز، مستند و قابل نگهداری

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها12

اینتگریت کردن سرویس Changedetection.io با سیستم داخلی

توضیحات پروژه: ما یک اشتراک از سرویس Changedetection.io تهیه کرده‌ایم و قصد داریم آن را با سیستم داخلی‌مان یکپارچه کنیم. هدف ما این است که تغییرات صفحات مانیتور شده در این سرویس، به‌صورت خودکار در سیستم ما ثبت و قابل استفاده باشد.

جزئیات مورد نیاز: اتصال به API یا Webhook سرویس Changedetection.io دریافت داده‌های مربوط به تغییر صفحات (diff / triggers / notifications) ارسال و ذخیره این داده‌ها در سیستم داخلی ما (Back-end موجود است و API داخلی آماده است)

مهارت‌های مورد نیاز: تسلط به Python یا JavaScript (Node.js) تجربه کار با REST API و Webhookها آشنایی با مفاهیم Integration بین سرویس‌ها آشنایی با دیتابیس‌ها (آشنایی با PostgreSQL مزیت محسوب می‌شود) توانایی نوشتن کد تمیز، مستند و قابل نگهداری

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
پایان فرصت ارسال پیشنهاد
12 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

کیفیت بیشترین اهمیت را دارد.
بی‌نهایت
اتوماسیون مدیریت محتوای فنی ووکامرس

نام پروژه : اتوماسیون مدیریت محتوای فنی ووکامرس هدف : جمع آوری، دسته بندی، اصلاح ساختار و انتقال خودکار محتوا از منابع داده به ووکامرس خلاصه مدیریتی : یک الگوی محتوای هدف برای تک محصولات ووکامرس تعریف شده؛ قصد داریم به صورت خودکار داده های مورد نیاز را از منابع اصلی جمع آوری کنیم و پس از ویرایش، به صورت خودکار در ووکامرس منتشر کنیم.

نیازمندی های پروژه : -جستجوی خودکار محتوای فنی قطعات و تجهیزات صنعتی از منابع معتبر (ترجیحا منابع سازنده قطعه) -ذخیره، ساختاردهی و اصلاح داده ها طبق الگوی محتوای تعریف شده در پایگاه داده -درج متا دیتاهای مورد نیاز برای اهداف دسته بندی و سئو برای هر محصول -درج کدینگ (SKU) برای هر محصول (طبق الگو) و انتشار محتوا در ووکامرس -دریافت بروزرسانی از سمت منبع داده و اعمال در ووکامرس

محدوده پروژه : -تعداد تک محصولات پیش بینی شده : بیش از 10 میلیون محصول -تعداد دسته بندی های محصولات : بیش از 5 هزار دسته

الگوی اطلاعات صفحه تک محصول ووکامرس : -نام فارسی و انگلیسی محصول -کد سازنده (فنی) هر قطعه -نام فارسی و انگلیسی برند سازنده -تصاویر محصول (درج خودکار واترمارک) -فایل کاتالوگ و دیتاشیت هر محصول -درختواره دسته بندی محصول -مشخصات فنی (Taxonomy) هر محصول -معرفی خلاصه محصول -محصولات سازگار برای هر محصول (Compatible) -محصولات مکمل برای هر محصول (Complementary)

الزامات پروژه : -تهیه فایل WBS پروژه -یکسال پشتیبانی رایگان پس از تحویل -مستندسازی کامل -تحویل کامل کد بدون محدودیت -NDA (قرارداد عدم افشای اطلاعات محرمانه)

نحوه همکاری : -پروژه ای، با قرارداد کتبی و ضمانت نامه حسن اجرای تعهدات -مجری پس از مصاحبه آنلاین و بررسی سوابق فنی انتخاب می شود روش پرداخت : *25% پیش پرداخت با ارائه چک ضمانت از سمت مجری *10% بابت بسته شدن هر فاز از پروژه (حداکثر 6 فاز می تواند تعریف شود) *15% پس از تست، آموزش و تحویل پروژه (در قالب صورتجلسه تحویل) توضیحات : *ضمانت نامه پیش پرداخت به مبلغ 130% آن، پس از تحویل پروژه عودت داده می شود *ضمانت نامه حسن اجرای تعهدات به مبلغ 30% کل قرارداد پس از پایان دوره گارانتی تحویل داده می شود *ضمانت نامه در قالب چک صیادی می باشد

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
وردپرس (WordPress)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها12

اتوماسیون مدیریت محتوای فنی ووکامرس

نام پروژه : اتوماسیون مدیریت محتوای فنی ووکامرس هدف : جمع آوری، دسته بندی، اصلاح ساختار و انتقال خودکار محتوا از منابع داده به ووکامرس خلاصه مدیریتی : یک الگوی محتوای هدف برای تک محصولات ووکامرس تعریف شده؛ قصد داریم به صورت خودکار داده های مورد نیاز را از منابع اصلی جمع آوری کنیم و پس از ویرایش، به صورت خودکار در ووکامرس منتشر کنیم.

نیازمندی های پروژه : -جستجوی خودکار محتوای فنی قطعات و تجهیزات صنعتی از منابع معتبر (ترجیحا منابع سازنده قطعه) -ذخیره، ساختاردهی و اصلاح داده ها طبق الگوی محتوای تعریف شده در پایگاه داده -درج متا دیتاهای مورد نیاز برای اهداف دسته بندی و سئو برای هر محصول -درج کدینگ (SKU) برای هر محصول (طبق الگو) و انتشار محتوا در ووکامرس -دریافت بروزرسانی از سمت منبع داده و اعمال در ووکامرس

محدوده پروژه : -تعداد تک محصولات پیش بینی شده : بیش از 10 میلیون محصول -تعداد دسته بندی های محصولات : بیش از 5 هزار دسته

الگوی اطلاعات صفحه تک محصول ووکامرس : -نام فارسی و انگلیسی محصول -کد سازنده (فنی) هر قطعه -نام فارسی و انگلیسی برند سازنده -تصاویر محصول (درج خودکار واترمارک) -فایل کاتالوگ و دیتاشیت هر محصول -درختواره دسته بندی محصول -مشخصات فنی (Taxonomy) هر محصول -معرفی خلاصه محصول -محصولات سازگار برای هر محصول (Compatible) -محصولات مکمل برای هر محصول (Complementary)

الزامات پروژه : -تهیه فایل WBS پروژه -یکسال پشتیبانی رایگان پس از تحویل -مستندسازی کامل -تحویل کامل کد بدون محدودیت -NDA (قرارداد عدم افشای اطلاعات محرمانه)

نحوه همکاری : -پروژه ای، با قرارداد کتبی و ضمانت نامه حسن اجرای تعهدات -مجری پس از مصاحبه آنلاین و بررسی سوابق فنی انتخاب می شود روش پرداخت : *25% پیش پرداخت با ارائه چک ضمانت از سمت مجری *10% بابت بسته شدن هر فاز از پروژه (حداکثر 6 فاز می تواند تعریف شود) *15% پس از تست، آموزش و تحویل پروژه (در قالب صورتجلسه تحویل) توضیحات : *ضمانت نامه پیش پرداخت به مبلغ 130% آن، پس از تحویل پروژه عودت داده می شود *ضمانت نامه حسن اجرای تعهدات به مبلغ 30% کل قرارداد پس از پایان دوره گارانتی تحویل داده می شود *ضمانت نامه در قالب چک صیادی می باشد

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
وردپرس (WordPress)
بی‌نهایت
پایان فرصت ارسال پیشنهاد
12 پیشنهاد
کیفیت بیشترین اهمیت را دارد.
مشاهده‌ی پروژه

کیفیت بیشترین اهمیت را دارد.
بیلبورد شده
فوری
برجسته
کارشناس استخراج api برای اپلیکیشن های اندرویدیبه یک کارشناس مسولیت پذیر جهت استخراج api و تحلیل ساختاری نرم افزار اندرویدی نیاز داریم
مهارت ها:
جاوا (Java)
پایتون (Python)
تست نرم افزار
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها13

بیلبورد شده
کارشناس استخراج api برای اپلیکیشن های اندرویدیبه یک کارشناس مسولیت پذیر جهت استخراج api و تحلیل ساختاری نرم افزار اندرویدی نیاز داریم
مهارت ها:
جاوا (Java)
پایتون (Python)
تست نرم افزار
Web Scraping
فوری
برجسته
پایان فرصت ارسال پیشنهاد
13 پیشنهاد
کیفیت بیشترین اهمیت را دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
انتقال و ترجمه محصولات از سایت فارسی به سایت لاتین

سلام. هردو سایت ما وردپرس ووکامرس هستش. محصولات را از سایت فارسیمون به سایت انگلیسیمون میخوایم انتقال بدیم (برون بری و درون ریزی یا هر روشی که بهتر میدونید). فقط قبل از درون ریزی به سایت انگلیسی، بایستی فایل حاوی محصولات (حالا با هرفرمتی CSV، JSON و...) ابتدا به انگلیسی ترجمه شوند و سپس درون ریزی شوند. محصولات ما شامل موبایل و تبلت است و جدول مشخصات فنی دارند که این جدول از طریق یک افزونه ایجاد شده و اون افزونه هم قابلیت برون بری و درون ریزی دارد. لذا چه فایل جدول و چه محصولات کلا بایستی ابتدا ترجمه و سپس داخل سایت انگلیسی درون ریزی شوند. پس از درون ریزی، هم جایگاه جدول و توضیحات محصول و خلاصه کم و زیاد نمایش محتوا گرفته بشه و هم از نظر چپ چین شدن محتوا اوکی بشه. این روند هم بهم گفته بشه که آینده مجددا واسه انتقالشون خودم بتونم انجام بدم.

مهارت ها:
MySQL
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها16

انتقال و ترجمه محصولات از سایت فارسی به سایت لاتین

سلام. هردو سایت ما وردپرس ووکامرس هستش. محصولات را از سایت فارسیمون به سایت انگلیسیمون میخوایم انتقال بدیم (برون بری و درون ریزی یا هر روشی که بهتر میدونید). فقط قبل از درون ریزی به سایت انگلیسی، بایستی فایل حاوی محصولات (حالا با هرفرمتی CSV، JSON و...) ابتدا به انگلیسی ترجمه شوند و سپس درون ریزی شوند. محصولات ما شامل موبایل و تبلت است و جدول مشخصات فنی دارند که این جدول از طریق یک افزونه ایجاد شده و اون افزونه هم قابلیت برون بری و درون ریزی دارد. لذا چه فایل جدول و چه محصولات کلا بایستی ابتدا ترجمه و سپس داخل سایت انگلیسی درون ریزی شوند. پس از درون ریزی، هم جایگاه جدول و توضیحات محصول و خلاصه کم و زیاد نمایش محتوا گرفته بشه و هم از نظر چپ چین شدن محتوا اوکی بشه. این روند هم بهم گفته بشه که آینده مجددا واسه انتقالشون خودم بتونم انجام بدم.

مهارت ها:
MySQL
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
برنامه نویسی تحت وب
پایان فرصت ارسال پیشنهاد
16 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اسکرپ و آپدیت دیتای محصولات از سایت مبدا به مقصد با پایتون

اسکریپت سینک محصولات ووکامرس (Python)

یک اسکریپت پایتون برای استخراج (scrape) محصولات از یک سایت ووکامرسی نوشته شده که میخوایم اون رو از اول بنویسید یا بر اساس اون و توضیحات پروژه دوباره بنویسیدش. توضیحات کامل با جزئیات در فایل ضمیمه قابل دانلود است.

🔍 خلاصه‌ی نیازمندی‌ها

مرحله استخراج (Scraping): خواندن سایت‌مپ‌ها و استخراج URL، تصویر شاخص و lastmod. بررسی و خواندن اطلاعات داخل صفحات محصول (نام، SKU، قیمت، توضیحات، دسته‌بندی، موجودی و…) ذخیره در فایل CSV (UTF‑8 و بدون به‌هم‌ریختگی فارسی). دارای گزینه‌ی Test Mode و ذخیره‌ی مرحله‌ای (batch).

مرحله همگام‌سازی (Syncing): ارسال داده‌ها به سایت مقصد با API ووکامرس (woocommerce-api). آپلود تصویر از طریق REST API وردپرس و جلوگیری آپلود فایل تکراری. فقط محصولات جدید ساخته شوند (تشخیص بر اساس SKU). ذخیره وضعیت تغییر lastmod در sync_status.json و صرف‌نظر از اسکرپ موارد تکراری یا بدون تغییر. امکان تعیین تعداد آپلود هم‌زمان (rate limit) برای جلوگیری از بلاک شدن سرور.

عمومی: ساختار تمیز با فایل .env برای پیکربندی. منوی CLI با گزینه‌های «فقط استخراج»، «فقط سینک» یا «هر دو». گزارش و لاگ انگلیسی، مدیریت خطا، و خلاصه نهایی از نتایج.

مهارت ها:
پایتون (Python)
Web Scraping
وردپرس (WordPress)
Debugging
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها4

اسکرپ و آپدیت دیتای محصولات از سایت مبدا به مقصد با پایتون

اسکریپت سینک محصولات ووکامرس (Python)

یک اسکریپت پایتون برای استخراج (scrape) محصولات از یک سایت ووکامرسی نوشته شده که میخوایم اون رو از اول بنویسید یا بر اساس اون و توضیحات پروژه دوباره بنویسیدش. توضیحات کامل با جزئیات در فایل ضمیمه قابل دانلود است.

🔍 خلاصه‌ی نیازمندی‌ها

مرحله استخراج (Scraping): خواندن سایت‌مپ‌ها و استخراج URL، تصویر شاخص و lastmod. بررسی و خواندن اطلاعات داخل صفحات محصول (نام، SKU، قیمت، توضیحات، دسته‌بندی، موجودی و…) ذخیره در فایل CSV (UTF‑8 و بدون به‌هم‌ریختگی فارسی). دارای گزینه‌ی Test Mode و ذخیره‌ی مرحله‌ای (batch).

مرحله همگام‌سازی (Syncing): ارسال داده‌ها به سایت مقصد با API ووکامرس (woocommerce-api). آپلود تصویر از طریق REST API وردپرس و جلوگیری آپلود فایل تکراری. فقط محصولات جدید ساخته شوند (تشخیص بر اساس SKU). ذخیره وضعیت تغییر lastmod در sync_status.json و صرف‌نظر از اسکرپ موارد تکراری یا بدون تغییر. امکان تعیین تعداد آپلود هم‌زمان (rate limit) برای جلوگیری از بلاک شدن سرور.

عمومی: ساختار تمیز با فایل .env برای پیکربندی. منوی CLI با گزینه‌های «فقط استخراج»، «فقط سینک» یا «هر دو». گزارش و لاگ انگلیسی، مدیریت خطا، و خلاصه نهایی از نتایج.

مهارت ها:
پایتون (Python)
Web Scraping
وردپرس (WordPress)
Debugging
پایان فرصت ارسال پیشنهاد
4 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
توسعه‌دهنده AWS برای ساخت وب اسکرپر سرورلس Terraform- Lambda

شرح کلی پروژه به دنبال یک توسعه‌دهنده ماهر و باتجربه AWS هستم تا یک راهکار وب اسکرپینگ (Web Scraping) مقاوم و غیرقابل شناسایی را با معماری سرورلس پیاده‌سازی کند. وظیفه اصلی، استخراج اطلاعات محصولات از یک وب‌سایت فروشگاهی، مدیریت مکانیزم‌های ضد ربات، ذخیره‌سازی داده‌ها در DynamoDB و ارسال هر محصول جدید در قالب JSON به یک وب‌هوک (Webhook) مشخص است.

کل زیرساخت پروژه باید با استفاده از Terraform تعریف و پیاده‌سازی شود تا قابلیت نگهداری و مقیاس‌پذیری بالایی داشته باشد.

مسئولیت‌های کلیدی

توسعه یک سیستم وب اسکرپینگ سرورلس در AWS با استفاده از Lambda، SQS و DynamoDB. نوشتن و مدیریت کامل زیرساخت به عنوان کد (IaC) با استفاده از Terraform و با ساختاری ماژولار و تمیز. پیاده‌سازی استراتژی‌های پیشرفته برای دور زدن سیستم‌های ضد ربات، شامل چرخش پراکسی‌های مسکونی (Residential Proxy) و مدیریت User-Agent. ساخت یک سیستم دو بخشی با Lambda: یک تابع برای مدیریت و تولید تسک‌ها (Orchestrator) و یک تابع برای اجرای اسکرپینگ (Worker). پس از ذخیره‌سازی موفق هر محصول در DynamoDB، تابع اسکرپر باید یک درخواست POST حاوی داده‌های محصول به صورت JSON به URL وب‌هوک ارسال کند. طراحی یک اسکیمای بهینه برای DynamoDB جهت ذخیره‌سازی داده‌ها و جلوگیری از ثبت اطلاعات تکراری با استفاده از Global Secondary Index (GSI).

تکنولوژی‌ها و نیازمندی‌های فنی

زیرساخت: Terraform کلاد: AWS (Lambda, SQS, DynamoDB, EventBridge, CloudWatch) زبان برنامه‌نویسی: Node.js (نسخه 22.x) اسکرپینگ: Cheerio, Axios یکپارچه‌سازی: ارسال امن داده به یک وب‌هوک خارجی. پایگاه داده: DynamoDB با ظرفیت On-Demand و قابلیت TTL.

خروجی‌های پروژه

کد کامل Terraform: کد ماژولار و آماده برای محیط پروداکشن که تمام منابع AWS را تعریف می‌کند. توابع Lambda با Node.js: Orchestrator: برای تولید و ارسال تسک‌ها به صف SQS. Scraper: برای دریافت HTML، پارس داده‌ها، ذخیره‌سازی در DynamoDB و ارسال پی‌لود JSON به وب‌هوک. منطق ضد شناسایی: پیاده‌سازی محدودیت نرخ درخواست (Rate Limiting)، چرخش پراکسی و تغییر هدرها. مدیریت داده: طراحی اسکیمای جدول DynamoDB برای کوئری‌های بهینه و جلوگیری از تکرار داده. مدیریت خطا: استفاده از صف SQS Dead-Letter Queue (DLQ) برای مدیریت تسک‌های ناموفق و تنظیم آلارم در CloudWatch. مستندات: یک فایل README.md جامع شامل توضیحات معماری، راهنمای استقرار، متغیرهای محیطی (شامل URL وب‌هوک) و نمونه‌ای از پی‌لود JSON.

مهارت ها:
Amazon Web Services
جاوا اسکریپت (JavaScript)
Node.js
Web Scraping
Web Services
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها5

توسعه‌دهنده AWS برای ساخت وب اسکرپر سرورلس Terraform- Lambda

شرح کلی پروژه به دنبال یک توسعه‌دهنده ماهر و باتجربه AWS هستم تا یک راهکار وب اسکرپینگ (Web Scraping) مقاوم و غیرقابل شناسایی را با معماری سرورلس پیاده‌سازی کند. وظیفه اصلی، استخراج اطلاعات محصولات از یک وب‌سایت فروشگاهی، مدیریت مکانیزم‌های ضد ربات، ذخیره‌سازی داده‌ها در DynamoDB و ارسال هر محصول جدید در قالب JSON به یک وب‌هوک (Webhook) مشخص است.

کل زیرساخت پروژه باید با استفاده از Terraform تعریف و پیاده‌سازی شود تا قابلیت نگهداری و مقیاس‌پذیری بالایی داشته باشد.

مسئولیت‌های کلیدی

توسعه یک سیستم وب اسکرپینگ سرورلس در AWS با استفاده از Lambda، SQS و DynamoDB. نوشتن و مدیریت کامل زیرساخت به عنوان کد (IaC) با استفاده از Terraform و با ساختاری ماژولار و تمیز. پیاده‌سازی استراتژی‌های پیشرفته برای دور زدن سیستم‌های ضد ربات، شامل چرخش پراکسی‌های مسکونی (Residential Proxy) و مدیریت User-Agent. ساخت یک سیستم دو بخشی با Lambda: یک تابع برای مدیریت و تولید تسک‌ها (Orchestrator) و یک تابع برای اجرای اسکرپینگ (Worker). پس از ذخیره‌سازی موفق هر محصول در DynamoDB، تابع اسکرپر باید یک درخواست POST حاوی داده‌های محصول به صورت JSON به URL وب‌هوک ارسال کند. طراحی یک اسکیمای بهینه برای DynamoDB جهت ذخیره‌سازی داده‌ها و جلوگیری از ثبت اطلاعات تکراری با استفاده از Global Secondary Index (GSI).

تکنولوژی‌ها و نیازمندی‌های فنی

زیرساخت: Terraform کلاد: AWS (Lambda, SQS, DynamoDB, EventBridge, CloudWatch) زبان برنامه‌نویسی: Node.js (نسخه 22.x) اسکرپینگ: Cheerio, Axios یکپارچه‌سازی: ارسال امن داده به یک وب‌هوک خارجی. پایگاه داده: DynamoDB با ظرفیت On-Demand و قابلیت TTL.

خروجی‌های پروژه

کد کامل Terraform: کد ماژولار و آماده برای محیط پروداکشن که تمام منابع AWS را تعریف می‌کند. توابع Lambda با Node.js: Orchestrator: برای تولید و ارسال تسک‌ها به صف SQS. Scraper: برای دریافت HTML، پارس داده‌ها، ذخیره‌سازی در DynamoDB و ارسال پی‌لود JSON به وب‌هوک. منطق ضد شناسایی: پیاده‌سازی محدودیت نرخ درخواست (Rate Limiting)، چرخش پراکسی و تغییر هدرها. مدیریت داده: طراحی اسکیمای جدول DynamoDB برای کوئری‌های بهینه و جلوگیری از تکرار داده. مدیریت خطا: استفاده از صف SQS Dead-Letter Queue (DLQ) برای مدیریت تسک‌های ناموفق و تنظیم آلارم در CloudWatch. مستندات: یک فایل README.md جامع شامل توضیحات معماری، راهنمای استقرار، متغیرهای محیطی (شامل URL وب‌هوک) و نمونه‌ای از پی‌لود JSON.

مهارت ها:
Amazon Web Services
جاوا اسکریپت (JavaScript)
Node.js
Web Scraping
Web Services
پایان فرصت ارسال پیشنهاد
5 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
استخراج اطلاعات از سایت

میخوام از یک سری سایت ها استخراج انجام بشه. با سرعت بالا باشه. گیر نخوره. بصورت روتین طی یک زمان هایی عملیات استخراج مجدد صورت باید بگیره. دقت کنین که تعداد صفحاتی که بخواد استخراج بشه ممکنه زیاد باشه، و همینطورم هر روز یا یه روز در میون آپدیت میخوام بشه دیتا. ممکنه اون سایت ها یه سری api بدن، یا ندن. برای کاربری راحت تر هم یه پنل مدیریتی میخوام که راحت بشه هر کاری رو با یک دکمه انجام داد و نیاز نباشه بخوایم اسکریپتی رو جداگونه دستی بزنیم ران بشه. با سپاس

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
Golang
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها36

استخراج اطلاعات از سایت

میخوام از یک سری سایت ها استخراج انجام بشه. با سرعت بالا باشه. گیر نخوره. بصورت روتین طی یک زمان هایی عملیات استخراج مجدد صورت باید بگیره. دقت کنین که تعداد صفحاتی که بخواد استخراج بشه ممکنه زیاد باشه، و همینطورم هر روز یا یه روز در میون آپدیت میخوام بشه دیتا. ممکنه اون سایت ها یه سری api بدن، یا ندن. برای کاربری راحت تر هم یه پنل مدیریتی میخوام که راحت بشه هر کاری رو با یک دکمه انجام داد و نیاز نباشه بخوایم اسکریپتی رو جداگونه دستی بزنیم ران بشه. با سپاس

مهارت ها:
جاوا (Java)
جاوا اسکریپت (JavaScript)
پایتون (Python)
Web Scraping
Golang
بی‌نهایت
پایان فرصت ارسال پیشنهاد
36 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بی‌نهایت
فوری
برجسته
متمایز
استخدام پاره‌وقت برنامه‌نویس پایتون Mid level

ما در حال توسعه‌ی یک پلتفرم جامع برای جمع‌آوری و طبقه‌بندی منابع آموزش شامل درس‌ها، ویدیوها، کتاب‌ها و وبینارها برای معلمان هستیم

این منابع همگی از وبسایت‌های خارجی scrape و در دیتابیس SQLite ذخیره و سپس روی پلتفرم ما آپلود میشوند.

داده‌ها از پایگاه داده محلی SQLite توسط API و با کد پایتون به وردپرس ارسال می‌شوند.

کار با دیتاست‌های حجیم (ده‌ها هزار رکورد) انجام می‌شود.

به‌دنبال یک برنامه‌نویس mid level پایتون هستیم که بتواند در بخش اسکرپینگ، بهینه‌سازی و اتوماسیون انتقال داده‌ها با ما همکاری کند. ________________________________________

شرح وظایف

• توسعه و نگهداری اسکریپت‌های پایتون برای: o استخراج (Scraping) داده‌ها از وب‌سایت‌های منابع آموزشی خارجی (HTML parsing, JSON, RSS, API) o ساخت و به‌روزرسانی جداول SQLite o ارسال خودکار داده‌ها (پست‌ها و متافیلدها) به WordPress REST API o مدیریت آپلود تصاویر و فایل‌ها روی CDN o ایجاد ارتباط بین داده‌ها (Relations) بین دروس و مجموعه‌ها (Sets) • بهینه‌سازی ساختار داده‌ها برای کارایی بالا در انتقال انبوه (Batch upload) • بررسی و رفع خطاهای ارتباط بین پایتون و وردپرس (API debugging) • ایجاد گزارش‌های خودکار از وضعیت داده‌های بارگذاری‌شده • بررسی صحت و validation برای فایل‌ها و داده‌های اسکرپ شده ________________________________________

مهارت‌های مورد نیاز

• تسلط کامل به Python 3 • تجربه عملی در Web Scraping با یکی از کتابخانه‌ها: BeautifulSoup, Requests, Playwright, Selenium • تسلط به SQLite و ساخت و به‌روزرسانی جداول دیتابیس • آشنایی با WordPress REST API خواندن/نوشتن پست‌ها، متاها، taxonomy و relations) • تسلط به کار با JSON, HTTP requests, و کتابخانه‌هایی مانند requests • درک ساختار داده‌های سایت‌های آموزشی (درس، سطح، سن، مهارت، ویدیو، صوت و ...) • تجربه با پروژه‌های داده‌محور یا crawlerهای آموزشی امتیاز محسوب می‌شود • تسلط به مهارت خواندن و درک مطلب زبان انگلیسی در سطح Intermediate به بالا


نوع و شرایط همکاری

• کار کاملاً از راه دور است. • پروژه‌ای سه ماهه (با امکان تمدید همکاری بلندمدت) • لطفا فقط در صورتی پیشنهاد ارسال کنید که امکان کار کردن روزانه ۴ تا ۵ ساعت را دارید
• پرداخت به ازای ماژول‌های تحویلی و تسک‌های مشخص • در صورت رضایت از عملکرد، همکاری مستمر برای نگهداری و توسعه سیستم در آینده خواهیم داشت • همکاری به صورت دورکاری است و نیاز به تعهد به ساعات کاری ذکر شده دارد. • تنها افرادی که به صورت حرفه‌ای در زمینه‌های فوق فعالیت کرده‌اند و نمونه کارهای مربوطه را دارند، دعوت به همکاری می‌شوند. • سورس‌کدها باید در ریپازیتوری private در گیتهاب تحویل شوند.

با تشکر

مهارت ها:
پایتون (Python)
تست نرم افزار
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها26

استخدام پاره‌وقت برنامه‌نویس پایتون Mid level

ما در حال توسعه‌ی یک پلتفرم جامع برای جمع‌آوری و طبقه‌بندی منابع آموزش شامل درس‌ها، ویدیوها، کتاب‌ها و وبینارها برای معلمان هستیم

این منابع همگی از وبسایت‌های خارجی scrape و در دیتابیس SQLite ذخیره و سپس روی پلتفرم ما آپلود میشوند.

داده‌ها از پایگاه داده محلی SQLite توسط API و با کد پایتون به وردپرس ارسال می‌شوند.

کار با دیتاست‌های حجیم (ده‌ها هزار رکورد) انجام می‌شود.

به‌دنبال یک برنامه‌نویس mid level پایتون هستیم که بتواند در بخش اسکرپینگ، بهینه‌سازی و اتوماسیون انتقال داده‌ها با ما همکاری کند. ________________________________________

شرح وظایف

• توسعه و نگهداری اسکریپت‌های پایتون برای: o استخراج (Scraping) داده‌ها از وب‌سایت‌های منابع آموزشی خارجی (HTML parsing, JSON, RSS, API) o ساخت و به‌روزرسانی جداول SQLite o ارسال خودکار داده‌ها (پست‌ها و متافیلدها) به WordPress REST API o مدیریت آپلود تصاویر و فایل‌ها روی CDN o ایجاد ارتباط بین داده‌ها (Relations) بین دروس و مجموعه‌ها (Sets) • بهینه‌سازی ساختار داده‌ها برای کارایی بالا در انتقال انبوه (Batch upload) • بررسی و رفع خطاهای ارتباط بین پایتون و وردپرس (API debugging) • ایجاد گزارش‌های خودکار از وضعیت داده‌های بارگذاری‌شده • بررسی صحت و validation برای فایل‌ها و داده‌های اسکرپ شده ________________________________________

مهارت‌های مورد نیاز

• تسلط کامل به Python 3 • تجربه عملی در Web Scraping با یکی از کتابخانه‌ها: BeautifulSoup, Requests, Playwright, Selenium • تسلط به SQLite و ساخت و به‌روزرسانی جداول دیتابیس • آشنایی با WordPress REST API خواندن/نوشتن پست‌ها، متاها، taxonomy و relations) • تسلط به کار با JSON, HTTP requests, و کتابخانه‌هایی مانند requests • درک ساختار داده‌های سایت‌های آموزشی (درس، سطح، سن، مهارت، ویدیو، صوت و ...) • تجربه با پروژه‌های داده‌محور یا crawlerهای آموزشی امتیاز محسوب می‌شود • تسلط به مهارت خواندن و درک مطلب زبان انگلیسی در سطح Intermediate به بالا


نوع و شرایط همکاری

• کار کاملاً از راه دور است. • پروژه‌ای سه ماهه (با امکان تمدید همکاری بلندمدت) • لطفا فقط در صورتی پیشنهاد ارسال کنید که امکان کار کردن روزانه ۴ تا ۵ ساعت را دارید
• پرداخت به ازای ماژول‌های تحویلی و تسک‌های مشخص • در صورت رضایت از عملکرد، همکاری مستمر برای نگهداری و توسعه سیستم در آینده خواهیم داشت • همکاری به صورت دورکاری است و نیاز به تعهد به ساعات کاری ذکر شده دارد. • تنها افرادی که به صورت حرفه‌ای در زمینه‌های فوق فعالیت کرده‌اند و نمونه کارهای مربوطه را دارند، دعوت به همکاری می‌شوند. • سورس‌کدها باید در ریپازیتوری private در گیتهاب تحویل شوند.

با تشکر

مهارت ها:
پایتون (Python)
تست نرم افزار
Web Scraping
بی‌نهایت
فوری
برجسته
متمایز
پایان فرصت ارسال پیشنهاد
26 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
توسعه کراولر به زبان پایتون

سلام نیاز به توسعه یک کراولر دارم که اطلاعات برخی وب سایتها رو طبق الگویی که عرض میکنم جمع آوری و ارائه کند. همچنین باید خودتون زحمت اجرای آن را بکشید و خروجی را به همراه اسکریپت به بنده تحویل دهید. چنانچه مایل به انجام این کار با زبان پایتون هستید، لطفاً پیشنهادتون رو ارائه فرمائید. متشکرم

مهارت ها:
پایتون (Python)
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها23

توسعه کراولر به زبان پایتون

سلام نیاز به توسعه یک کراولر دارم که اطلاعات برخی وب سایتها رو طبق الگویی که عرض میکنم جمع آوری و ارائه کند. همچنین باید خودتون زحمت اجرای آن را بکشید و خروجی را به همراه اسکریپت به بنده تحویل دهید. چنانچه مایل به انجام این کار با زبان پایتون هستید، لطفاً پیشنهادتون رو ارائه فرمائید. متشکرم

مهارت ها:
پایتون (Python)
Web Scraping
پایان فرصت ارسال پیشنهاد
23 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

قیمت بیشترین اهمیت را دارد.
اتصال سایت به سرور خارجیFTP برای آپلود اتوماتیک ویدئوهای پست

سلام پروژه ای هست که سایت وردپرس بدلیل کم شدن فضای هاستش نیاز داره که یک هاست خریداری شده دانلود رو بهش متصل کنیم بگونه ای که مطالب به محض ارسال بهش بصورت اتوماتیک فایل ویدئو موجود درش اتومات به سرور دانلود منتقل بشن و لینک جدیدش در سایت قرار بگیره اتوماتیک تا ویدئو ها از اون هاست بالا بیاد. فکر کنم به یک افزونه سفارشی برای این کار نیازه که رسانه به سرور دانلود خارجی با استفاده از SSH/SCP یا Curl متصل بشه.

ما نیاز به یک راه‌حل پایدار برای آپلود فایل‌های ویدیو از داخل پیشخوان وردپرس داریم، به گونه‌ای که فایل‌ها مستقیماً به یک سرور دانلود (VPS) منتقل بشوند. ما به یک راه‌حل مبتنی بر کدنویسی نیاز داریم که از روش‌های انتقال مطمئن‌ و پایدار استفاده بکنه و به محض انتشار مطلب ویدئوهای پست رو روی سرور دانلود انتقال بده و توی پست هم اتوماتیک لینکش رو تغییر بده به لینک هاست دانلود تا ویدئو توی سایت اصلی نمایش داده بشه . فقط لطفا افرادی که کامل تخصص دارن پروژه رو قبول بکنن . چون پروژه نیاز به این داره که قبلا حتما فرد این کار رو انجام داده باشه.

مهارت ها:
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
راه اندازی سرور لینوکس
برنامه نویسی بک اند (Back-End)
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها10

اتصال سایت به سرور خارجیFTP برای آپلود اتوماتیک ویدئوهای پست

سلام پروژه ای هست که سایت وردپرس بدلیل کم شدن فضای هاستش نیاز داره که یک هاست خریداری شده دانلود رو بهش متصل کنیم بگونه ای که مطالب به محض ارسال بهش بصورت اتوماتیک فایل ویدئو موجود درش اتومات به سرور دانلود منتقل بشن و لینک جدیدش در سایت قرار بگیره اتوماتیک تا ویدئو ها از اون هاست بالا بیاد. فکر کنم به یک افزونه سفارشی برای این کار نیازه که رسانه به سرور دانلود خارجی با استفاده از SSH/SCP یا Curl متصل بشه.

ما نیاز به یک راه‌حل پایدار برای آپلود فایل‌های ویدیو از داخل پیشخوان وردپرس داریم، به گونه‌ای که فایل‌ها مستقیماً به یک سرور دانلود (VPS) منتقل بشوند. ما به یک راه‌حل مبتنی بر کدنویسی نیاز داریم که از روش‌های انتقال مطمئن‌ و پایدار استفاده بکنه و به محض انتشار مطلب ویدئوهای پست رو روی سرور دانلود انتقال بده و توی پست هم اتوماتیک لینکش رو تغییر بده به لینک هاست دانلود تا ویدئو توی سایت اصلی نمایش داده بشه . فقط لطفا افرادی که کامل تخصص دارن پروژه رو قبول بکنن . چون پروژه نیاز به این داره که قبلا حتما فرد این کار رو انجام داده باشه.

مهارت ها:
پی اچ پی (PHP)
Web Scraping
وردپرس (WordPress)
راه اندازی سرور لینوکس
برنامه نویسی بک اند (Back-End)
پایان فرصت ارسال پیشنهاد
10 پیشنهاد
قیمت بیشترین اهمیت را دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
بیلبورد شده
فوری
برجسته
کرالر و مرجر داده‌های گوگل مپ و تریپ‌ادوایزرPython/Node.js

به دنبال برنامه‌نویس با تجربه در Python یا Node.js هستیم تا یک کرالر حرفه‌ای و ماژول مرجر برای جمع‌آوری و یکپارچه‌سازی داده‌های مکان‌های گردشگری و غذایی (رستوران، کافه و …) از Google Maps و TripAdvisor در شهرهای ایران و کشورهای اطراف توسعه دهد.

ویژگی‌های پروژه: جمع‌آوری اطلاعات پایه مکان‌ها: نام، آدرس، شماره تماس، وبسایت، شبکه‌های اجتماعی، ساعات کاری، تصاویر جمع‌آوری ریویوها با حداقل تعداد مشخص (مثلاً فقط مکان‌هایی با ≥25 ریویو) امکان تنظیم حداقل/حداکثر تعداد ریویو برای هر مکان و مرتب‌سازی بر اساس جدیدترین‌ها خروجی استاندارد CSV/JSON و اتصال مستقیم به دیتابیس MySQL ماژول مرجر برای یکپارچه‌سازی داده‌ها خروجی آماده برای پردازش‌های بعدی و سیستم‌های مدیریت داده rate-limiting و random delay برای جلوگیری از بن شدن resume / incremental crawling برای بروزرسانی دوره‌ای داده‌ها پشتیبانی از چند شهر هم‌زمان پشتیبانی از proxy و headless mode (Selenium / Puppeteer) ساختار ماژولار برای افزودن منابع جدید (مثل Yelp در آینده)

خروجی نمونه: اطلاعات پایه: id, title, address, latitude, longitude, phone, website, social_instagram, category, tags ریویوها: source, date, content, rating, items تصاویر: حداقل ۴ تصویر فرمت خروجی مورد انتظار سه فایل خروجی مجزا: businesses.csv – اطلاعات پایه رستوران‌ها reviews.csv – نظرات کاربران report.log – گزارش کرال (تعداد موفق/ناموفق، ارورها، زمان اجرا) همه‌ی داده‌ها باید مستقیم به دیتابیس MySQL وارد شوند.

مهارت‌های مورد نیاز: Python یا Node.js Web Scraping / Anti-ban handling مدیریت خطا و ریت لیمیت مدیریت داده و ذخیره‌سازی CSV/JSON تجربه کار با دیتابیس MySQL

مهارت ها:
Node.js
MySQL
پایتون (Python)
Web Scraping
JSON
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها18

بیلبورد شده
کرالر و مرجر داده‌های گوگل مپ و تریپ‌ادوایزرPython/Node.js

به دنبال برنامه‌نویس با تجربه در Python یا Node.js هستیم تا یک کرالر حرفه‌ای و ماژول مرجر برای جمع‌آوری و یکپارچه‌سازی داده‌های مکان‌های گردشگری و غذایی (رستوران، کافه و …) از Google Maps و TripAdvisor در شهرهای ایران و کشورهای اطراف توسعه دهد.

ویژگی‌های پروژه: جمع‌آوری اطلاعات پایه مکان‌ها: نام، آدرس، شماره تماس، وبسایت، شبکه‌های اجتماعی، ساعات کاری، تصاویر جمع‌آوری ریویوها با حداقل تعداد مشخص (مثلاً فقط مکان‌هایی با ≥25 ریویو) امکان تنظیم حداقل/حداکثر تعداد ریویو برای هر مکان و مرتب‌سازی بر اساس جدیدترین‌ها خروجی استاندارد CSV/JSON و اتصال مستقیم به دیتابیس MySQL ماژول مرجر برای یکپارچه‌سازی داده‌ها خروجی آماده برای پردازش‌های بعدی و سیستم‌های مدیریت داده rate-limiting و random delay برای جلوگیری از بن شدن resume / incremental crawling برای بروزرسانی دوره‌ای داده‌ها پشتیبانی از چند شهر هم‌زمان پشتیبانی از proxy و headless mode (Selenium / Puppeteer) ساختار ماژولار برای افزودن منابع جدید (مثل Yelp در آینده)

خروجی نمونه: اطلاعات پایه: id, title, address, latitude, longitude, phone, website, social_instagram, category, tags ریویوها: source, date, content, rating, items تصاویر: حداقل ۴ تصویر فرمت خروجی مورد انتظار سه فایل خروجی مجزا: businesses.csv – اطلاعات پایه رستوران‌ها reviews.csv – نظرات کاربران report.log – گزارش کرال (تعداد موفق/ناموفق، ارورها، زمان اجرا) همه‌ی داده‌ها باید مستقیم به دیتابیس MySQL وارد شوند.

مهارت‌های مورد نیاز: Python یا Node.js Web Scraping / Anti-ban handling مدیریت خطا و ریت لیمیت مدیریت داده و ذخیره‌سازی CSV/JSON تجربه کار با دیتابیس MySQL

مهارت ها:
Node.js
MySQL
پایتون (Python)
Web Scraping
JSON
فوری
برجسته
پایان فرصت ارسال پیشنهاد
18 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
نیاز به یک نفر به جهت ساخت api اینستاگرام پیج شخصیم

درود بر شما نیاز به یک شخص دارم که بتونه api دایرکت مسیج(DM) پیج اینستاگراممون رو بسازه و برام بفرسته. چون پروسه ی ساخت api اسون نیست و ریسک لیمیت شدن اکانت وجود داره، ابتدا از شخص درخواست میشه یک اکانت تست رو امتحان بکنه و api بهم بده... بعدش اکانت اصلی رو تقدیمشون میکنم

مهارت ها:
پایتون (Python)
Web Scraping
طراحی شبکه
Telegram APIs
برنامه نویسی
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها10

نیاز به یک نفر به جهت ساخت api اینستاگرام پیج شخصیم

درود بر شما نیاز به یک شخص دارم که بتونه api دایرکت مسیج(DM) پیج اینستاگراممون رو بسازه و برام بفرسته. چون پروسه ی ساخت api اسون نیست و ریسک لیمیت شدن اکانت وجود داره، ابتدا از شخص درخواست میشه یک اکانت تست رو امتحان بکنه و api بهم بده... بعدش اکانت اصلی رو تقدیمشون میکنم

مهارت ها:
پایتون (Python)
Web Scraping
طراحی شبکه
Telegram APIs
برنامه نویسی
پایان فرصت ارسال پیشنهاد
10 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
استخراج و تهیه مجموعه عکس برای محصولات وبسایت فروشگاهی

پروژه شامل تولید تصاویر صنعتی سبک، با کیفیت و ابعاد یکنواخت و بدون مشکل کپی‌رایت برای محصولات یک وبسایت فروشگاهی می باشد. خروجی پروژه تصاویر همراه با فایل اکسل مستند (حاوی پرامپت، مدل، و نام فایل‌ها) هست که به‌صورت مرحله‌ای تحویل و تسویه می‌شوند. در ادامه توضیح کامل اورده شده است. لطفا کامل و دقیق بررسی کنید 🧭 عنوان پروژه ایجاد و استانداردسازی مجموعه‌ای از تصاویر صنعتی با استفاده از هوش مصنوعی (AI Image Generation & Standardization Project) ________________________________________ 🎯 هدف پروژه هدف این پروژه تولید مجموعه‌ای بزرگ از تصاویر صنعتی با استفاده از هوش مصنوعی است تا تمام تصاویر: • از نظر ابعاد، سبک، رنگ و پس‌زمینه کاملاً هماهنگ باشند، • از نظر حقوقی (کپی‌رایت) کاملاً آزاد و قابل استفاده باشند، • و در نهایت قابل اتصال به پایگاه داده (Excel / Database) برای استفاده در وب‌سایت یا نرم‌افزار باشند. ________________________________________ 📊 مقیاس و منابع پروژه • تعداد کل تصاویر مورد نظر: عکسها بر اساس تعداد محصولات (بیش از 1000 محصول) • برای هر محصول بین ۵ تا ۱۰ عکس مورد نیاز است. • فهرست سایت‌های پیشنهادی برای جمع‌آوری اولیه تصاویر توسط کارفرما ارائه می‌شود. • فریلنسر پس از جمع‌آوری تصاویر اولیه، باید با استفاده از هوش مصنوعی آن‌ها را بازتولید کند تا از نظر بصری و حقوقی با استاندارد پروژه هماهنگ باشند. ________________________________________ 🧩 مراحل اجرای پروژه مرحله 1 — طراحی سبک و سیاست تصویری (Photo Policy & Style Guide) فریلنسر باید سبک و استاندارد کلی تصاویر را مشخص و رعایت کند. مشخصات فنی: • ابعاد: مربع 1×1 • حداکثر رزولوشن: 500 پیکسل ضلع بلند • حداکثر حجم فایل: 100 KB برای هر عکس • پس‌زمینه: سفید یا شفاف • فرمت: WebP • تعداد تصاویر برای هر محصول: ۵ تا ۱۰ عدد سبک تصویری: • نور و رنگ یکنواخت • بدون لوگو، واترمارک یا نوشته • ترکیب‌بندی مرکزی و تمیز • هماهنگی رنگی و نوری بین تمام تصاویر ________________________________________ مرحله 2 — جمع‌آوری اولیه و بازتولید با هوش مصنوعی در این مرحله، فریلنسر ابتدا تصاویر مرجع اولیه را از سایت‌های عمومی و منابع پیشنهادی جمع‌آوری می‌کند تا ظاهر و نوع محصول مشخص شود. سپس با استفاده از ابزارهای هوش مصنوعی مانند Midjourney، Leonardo AI، Firefly، DALL·E 3 یا ابزارهای مشابه، تصاویر را بازتولید (Re-generate) می‌کند تا: • از نظر کپی‌رایت کاملاً آزاد باشند، • و از نظر سبک و کیفیت، با استاندارد پروژه مطابقت داشته باشند. وظایف در این مرحله:

  1. جمع‌آوری عکس‌های مرجع از سایت‌های معرفی‌شده.
  2. طراحی پرامپت‌های دقیق و مناسب برای هر گروه محصول.
  3. تولید تصاویر نهایی با هوش مصنوعی.
  4. بهینه‌سازی حجم تصاویر (زیر 100 KB) بدون افت کیفیت.
  5. ثبت مشخصات مدل و پرامپت‌های استفاده‌شده برای هر عکس.

مرحله 3 — مستندسازی، متادیتا و خروجی نهایی تمام تصاویر تولیدشده باید دارای فایل متادیتا و جدول ثبت اطلاعات باشند. ساختار فایل Excel باید دقیقاً به صورت زیر باشد: Group | Product Code | Product Name | AI Model Used | License: AI-Generated | Date Created | Prompt | Pic1 Name | Pic2 Name | Pic3 Name | Pic4 Name | Pic5 Name ... توضیحات: • ستون‌های Pic1 تا PicN شامل نام فایل دقیق هر تصویر هستند. • ستون Prompt شامل متن پرامپت استفاده‌شده است. • ستون AI Model Used باید مدل دقیق هوش مصنوعی را ذکر کند. • هر تصویر باید حجمی کمتر از 100 KB داشته باشد. ________________________________________ 📦 تحویل نهایی پروژه فریلنسر باید در پایان کار، خروجی‌های زیر را ارائه دهد:

  1. فولدرهای گروه‌بندی‌شده برای محصولات
  2. تصاویر نهایی با فرمت WebP و حجم ≤ 100 KB
  3. فولدر جداگانه شامل تصاویر اولیه جمع‌آوری‌شده (قبل از بازتولید)
  4. فایل Excel شامل تمام اطلاعات، نام فایل‌ها و پرامپت‌ها
  5. گزارش نهایی (PDF یا Word) شامل:o مدل‌های هوش مصنوعی استفاده‌شدهo پرامپت‌های نمونهo نکات کنترل کیفیت و هماهنگی

💰 نحوه انجام و پرداخت (Milestones) • کار به‌صورت مرحله‌ای (Milestone) انجام می‌شود. • پس از پایان هر مرحله، خروجی بررسی می‌شود و در صورت تأیید، تسویه حساب همان بخش انجام خواهد شد. • کارفرما بر تمام مراحل پروژه نظارت فعال دارد تا کیفیت خروجی مطابق انتظار باشد. ________________________________________ 🤝 همکاری و تعامل ما به دنبال همکاری بلندمدت و حرفه‌ای هستیم و می‌خواهیم این پروژه با کیفیت بالا و هماهنگی کامل انجام شود. در فضای کاری پروژه، تعامل و پیشنهاد دادن آزاد است — در صورتی که فریلنسر ایده‌ای برای ساده‌تر، سریع‌تر یا دقیق‌تر انجام پروژه داشته باشد، می‌تواند در ابتدای کار آن را مطرح کند تا بهترین شیوه اجرا انتخاب شود.

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
تست نرم افزار
Web Scraping
Debugging
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها14

استخراج و تهیه مجموعه عکس برای محصولات وبسایت فروشگاهی

پروژه شامل تولید تصاویر صنعتی سبک، با کیفیت و ابعاد یکنواخت و بدون مشکل کپی‌رایت برای محصولات یک وبسایت فروشگاهی می باشد. خروجی پروژه تصاویر همراه با فایل اکسل مستند (حاوی پرامپت، مدل، و نام فایل‌ها) هست که به‌صورت مرحله‌ای تحویل و تسویه می‌شوند. در ادامه توضیح کامل اورده شده است. لطفا کامل و دقیق بررسی کنید 🧭 عنوان پروژه ایجاد و استانداردسازی مجموعه‌ای از تصاویر صنعتی با استفاده از هوش مصنوعی (AI Image Generation & Standardization Project) ________________________________________ 🎯 هدف پروژه هدف این پروژه تولید مجموعه‌ای بزرگ از تصاویر صنعتی با استفاده از هوش مصنوعی است تا تمام تصاویر: • از نظر ابعاد، سبک، رنگ و پس‌زمینه کاملاً هماهنگ باشند، • از نظر حقوقی (کپی‌رایت) کاملاً آزاد و قابل استفاده باشند، • و در نهایت قابل اتصال به پایگاه داده (Excel / Database) برای استفاده در وب‌سایت یا نرم‌افزار باشند. ________________________________________ 📊 مقیاس و منابع پروژه • تعداد کل تصاویر مورد نظر: عکسها بر اساس تعداد محصولات (بیش از 1000 محصول) • برای هر محصول بین ۵ تا ۱۰ عکس مورد نیاز است. • فهرست سایت‌های پیشنهادی برای جمع‌آوری اولیه تصاویر توسط کارفرما ارائه می‌شود. • فریلنسر پس از جمع‌آوری تصاویر اولیه، باید با استفاده از هوش مصنوعی آن‌ها را بازتولید کند تا از نظر بصری و حقوقی با استاندارد پروژه هماهنگ باشند. ________________________________________ 🧩 مراحل اجرای پروژه مرحله 1 — طراحی سبک و سیاست تصویری (Photo Policy & Style Guide) فریلنسر باید سبک و استاندارد کلی تصاویر را مشخص و رعایت کند. مشخصات فنی: • ابعاد: مربع 1×1 • حداکثر رزولوشن: 500 پیکسل ضلع بلند • حداکثر حجم فایل: 100 KB برای هر عکس • پس‌زمینه: سفید یا شفاف • فرمت: WebP • تعداد تصاویر برای هر محصول: ۵ تا ۱۰ عدد سبک تصویری: • نور و رنگ یکنواخت • بدون لوگو، واترمارک یا نوشته • ترکیب‌بندی مرکزی و تمیز • هماهنگی رنگی و نوری بین تمام تصاویر ________________________________________ مرحله 2 — جمع‌آوری اولیه و بازتولید با هوش مصنوعی در این مرحله، فریلنسر ابتدا تصاویر مرجع اولیه را از سایت‌های عمومی و منابع پیشنهادی جمع‌آوری می‌کند تا ظاهر و نوع محصول مشخص شود. سپس با استفاده از ابزارهای هوش مصنوعی مانند Midjourney، Leonardo AI، Firefly، DALL·E 3 یا ابزارهای مشابه، تصاویر را بازتولید (Re-generate) می‌کند تا: • از نظر کپی‌رایت کاملاً آزاد باشند، • و از نظر سبک و کیفیت، با استاندارد پروژه مطابقت داشته باشند. وظایف در این مرحله:

  1. جمع‌آوری عکس‌های مرجع از سایت‌های معرفی‌شده.
  2. طراحی پرامپت‌های دقیق و مناسب برای هر گروه محصول.
  3. تولید تصاویر نهایی با هوش مصنوعی.
  4. بهینه‌سازی حجم تصاویر (زیر 100 KB) بدون افت کیفیت.
  5. ثبت مشخصات مدل و پرامپت‌های استفاده‌شده برای هر عکس.

مرحله 3 — مستندسازی، متادیتا و خروجی نهایی تمام تصاویر تولیدشده باید دارای فایل متادیتا و جدول ثبت اطلاعات باشند. ساختار فایل Excel باید دقیقاً به صورت زیر باشد: Group | Product Code | Product Name | AI Model Used | License: AI-Generated | Date Created | Prompt | Pic1 Name | Pic2 Name | Pic3 Name | Pic4 Name | Pic5 Name ... توضیحات: • ستون‌های Pic1 تا PicN شامل نام فایل دقیق هر تصویر هستند. • ستون Prompt شامل متن پرامپت استفاده‌شده است. • ستون AI Model Used باید مدل دقیق هوش مصنوعی را ذکر کند. • هر تصویر باید حجمی کمتر از 100 KB داشته باشد. ________________________________________ 📦 تحویل نهایی پروژه فریلنسر باید در پایان کار، خروجی‌های زیر را ارائه دهد:

  1. فولدرهای گروه‌بندی‌شده برای محصولات
  2. تصاویر نهایی با فرمت WebP و حجم ≤ 100 KB
  3. فولدر جداگانه شامل تصاویر اولیه جمع‌آوری‌شده (قبل از بازتولید)
  4. فایل Excel شامل تمام اطلاعات، نام فایل‌ها و پرامپت‌ها
  5. گزارش نهایی (PDF یا Word) شامل:o مدل‌های هوش مصنوعی استفاده‌شدهo پرامپت‌های نمونهo نکات کنترل کیفیت و هماهنگی

💰 نحوه انجام و پرداخت (Milestones) • کار به‌صورت مرحله‌ای (Milestone) انجام می‌شود. • پس از پایان هر مرحله، خروجی بررسی می‌شود و در صورت تأیید، تسویه حساب همان بخش انجام خواهد شد. • کارفرما بر تمام مراحل پروژه نظارت فعال دارد تا کیفیت خروجی مطابق انتظار باشد. ________________________________________ 🤝 همکاری و تعامل ما به دنبال همکاری بلندمدت و حرفه‌ای هستیم و می‌خواهیم این پروژه با کیفیت بالا و هماهنگی کامل انجام شود. در فضای کاری پروژه، تعامل و پیشنهاد دادن آزاد است — در صورتی که فریلنسر ایده‌ای برای ساده‌تر، سریع‌تر یا دقیق‌تر انجام پروژه داشته باشد، می‌تواند در ابتدای کار آن را مطرح کند تا بهترین شیوه اجرا انتخاب شود.

مهارت ها:
جاوا اسکریپت (JavaScript)
پایتون (Python)
تست نرم افزار
Web Scraping
Debugging
پایان فرصت ارسال پیشنهاد
14 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
اسکریپت دانلود از آرشیو شبکه اجتماعی

با سلام نیازمند یک اسکریپت که از وب‌اپ شبکه های اجتماعی استفاده کرده و تمامی موزیک‌های موجود در کانال‌های مورد نظر را با نام آنها دانلود و در پوشه مقصد دسکتاپ سیو کند.

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Shell Script
Web Scraping
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها14

اسکریپت دانلود از آرشیو شبکه اجتماعی

با سلام نیازمند یک اسکریپت که از وب‌اپ شبکه های اجتماعی استفاده کرده و تمامی موزیک‌های موجود در کانال‌های مورد نظر را با نام آنها دانلود و در پوشه مقصد دسکتاپ سیو کند.

مهارت ها:
جاوا اسکریپت (JavaScript)
پی اچ پی (PHP)
پایتون (Python)
Shell Script
Web Scraping
پایان فرصت ارسال پیشنهاد
14 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه

ترکیبی از قیمت و کیفیت اهمیت دارد.
پروژه اسکریپت اسکرپر/استخراج از Google Maps با اتصال به API

سلام من یک ابزار تحت وب نیاز دارم که با اتصال به API، اطلاعات کسب‌ و کارهای Google Maps رو استخراج کنه و خروجی رو برای استفاده در ابزار دیگه اماده کنه. ورودی، میتواند ۲ فایل csv باشد یا یک کلمه کلیدی.

خروجی مورد انتظار

فرم جستجو با فیلترهای حرفه‌ای (امتیاز، ریویو، قیمت، موقعیت)

اتصال به API رسمی و دریافت نتایج Google Maps

ذخیره نتایج و نمایش آن‌ها به‌ صورت کارت یا جدول

امکان دانلود خروجی به فرمت Excel و NDJSON

ارسال داده‌ها به ابزار (API یا Webhook)

انتشار با REST API

مهارت ها:
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
الگوریتم
Google Maps API
فرصت انتخابپایان فرصت ارسال پیشنهاد
پیشنهادها12

پروژه اسکریپت اسکرپر/استخراج از Google Maps با اتصال به API

سلام من یک ابزار تحت وب نیاز دارم که با اتصال به API، اطلاعات کسب‌ و کارهای Google Maps رو استخراج کنه و خروجی رو برای استفاده در ابزار دیگه اماده کنه. ورودی، میتواند ۲ فایل csv باشد یا یک کلمه کلیدی.

خروجی مورد انتظار

فرم جستجو با فیلترهای حرفه‌ای (امتیاز، ریویو، قیمت، موقعیت)

اتصال به API رسمی و دریافت نتایج Google Maps

ذخیره نتایج و نمایش آن‌ها به‌ صورت کارت یا جدول

امکان دانلود خروجی به فرمت Excel و NDJSON

ارسال داده‌ها به ابزار (API یا Webhook)

انتشار با REST API

مهارت ها:
پی اچ پی (PHP)
پایتون (Python)
Web Scraping
الگوریتم
Google Maps API
پایان فرصت ارسال پیشنهاد
12 پیشنهاد
ترکیبی از قیمت و کیفیت اهمیت دارد.
مشاهده‌ی پروژه