راه‌اندازی چت‌بات هوش مصنوعی در سایت‌های وردپرسی

راه‌اندازی چت‌بات هوش مصنوعی در سایت‌های وردپرسی
در این مقاله می خوانید:

معرفی مدل‌های هوش مصنوعی مناسب

۱- مدل‌های متن‌باز (Open Source)

  • LLaMA 2 (متا): مدلی قدرتمند با قابلیت اجرا روی سرور داخلی

  • GPT4All: مدلی سبک‌وزن که نیاز به سخت‌افزار قدرتمند ندارد

  • BERT (گوگل): مناسب برای کاربردهای خاص و domain-specific

  • Alpaca: مدل آموزش‌دیده بر اساس LLaMA

۲- سرویس های ایرانی

  • پارساچت: سرویس چت‌بات فارسی

  • هوش مصنوعی پندار: ارائه API برای توسعه‌دهندگان ایرانی

  • چت‌بات‌های داخلی: برخی شرکت‌های ایرانی APIهای محدود ارائه می‌دهند

۳- راه حل ترکیبی

استفاده از مدل‌های متن‌باز روی هاست داخلی و ترکیب با APIهای ایرانی برای عملکرد بهتر

روش های پیاده سازی در وردپرس

روش اول: استفاده از پلاگین‌های موجود

پلاگین‌های پیشنهادی:

  • AI Engine (رایگان)

  • ChatGPT for WordPress (نسخه پولی)

  • WP AI Chatbot (رایگان)

مزایا:

  • راه‌اندازی سریع

  • نیاز به کدنویسی حداقلی

معایب:

  • ممکن است با محدودیت‌های دسترسی در ایران مواجه شوند

  • انعطاف‌پذیری کم

روش دوم : پیاده سازی اختصاصی

پیاده‌سازی چت‌بات با استفاده از مدل‌های متن‌باز

پیش‌نیازها:

  1. هاست لینوکس با قابلیت اجرای پایتون

  2. حداقل 4GB RAM

  3. پشتیبانی از PHP 7.4 به بالا

  4. دسترسی SSH (اختیاری اما توصیه می‌شود)

مرحله ۱: نصب مدل هوش مصنوعی روی سرور

📁 install_llm.py
# اسکریپت نصب مدل سبک‌وزن  gpt4all مدل 

import subprocess
import sys

def install_requirements():
    requirements = [
        "torch",
        "transformers",
        "flask",
        "flask-cors",
        "sentencepiece",
        "protobuf"
    ]
    
    for package in requirements:
        subprocess.check_call([sys.executable, "-m", "pip", "install", package])

if __name__ == "__main__":
    install_requirements()
    print("نیازمندی‌ها با موفقیت نصب شدند.")

مرحله ۲ : ایجاد API

~/chatbot/ai_server.py
# ai_server.py
# سرور Flask برای سرویس دهی به مدل هوش مصنوعی

from flask import Flask, request, jsonify
from flask_cors import CORS
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

app = Flask(__name__)
CORS(app)

# تنظیم مدل (مثال با مدل کوچک)
MODEL_NAME = "gpt2"  # برای تست - در تولید از مدل‌های فارسی استفاده کنید

class ChatBotAI:
    def __init__(self):
        self.tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
        self.model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
        self.history = []

    def generate_response(self, prompt, max_length=100):
        inputs = self.tokenizer.encode(prompt, return_tensors="pt")
        outputs = self.model.generate(
            inputs, 
            max_length=max_length,
            num_return_sequences=1,
            no_repeat_ngram_size=2,
            temperature=0.7,
            top_p=0.9
        )
        response = self.tokenizer.decode(outputs[0], skip_special_tokens=True)
        return response

chatbot = ChatBotAI()

@app.route('/api/chat', methods=['POST'])
def chat():
    data = request.json
    message = data.get('message', '')
    
    if not message:
        return jsonify({"error": "پیامی دریافت نشد"}), 400
    
    # تولید پاسخ
    response = chatbot.generate_response(message)
    
    # حذف prompt از پاسخ
    response = response.replace(message, "").strip()
    
    return jsonify({
        "response": response,
        "status": "success"
    })

@app.route('/api/health', methods=['GET'])
def health_check():
    return jsonify({"status": "active"})

if __name__ == '__main__':
    app.run(host='0.0.0.0', port=5000, debug=False)
🌐 پورت: 5000
⚙️ فریمورک: Flask
🤖 مدل: GPT-2
🕐 زمان اجرا: ~۲ ثانیه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *