前段時間,有乙個專案需要搭建乙個chatbot,所以了解了一些關於rasa部署的方式。目前只是搭建了乙個基礎的chatbot,比較簡單,很有很多功能後面慢慢研究。趁著剛完成,還有印象,做一下總結,後面持續更新。
第一種方式是在docker容器中部署rasa服務。
關於什麼是docker,這裡就不做詳細的解釋了,有很多文章對這個講的非常詳細。
部署過程參考官方tutorial:
building rasa with docker
非常詳細了,所以這裡就做乙個搬運工哈哈。
第二種方式,不借助docker,而是直接在伺服器中部署。
官方quick installation
(這種方式需要先在伺服器中安裝python)
使用pip安裝rasa (需要python 3.6或以上)
pip3 install rasa
初始化乙個新的project
rasa init
然後,根據引導一步步來就行,首先需要建立乙個資料夾作為project的資料夾,然後初始化建立乙個最基礎的對話。
根據初始化之後得到的內容,訓練模型
rasa train
開啟服務
rasa run -m --cors "*"
--debug
此時,完成了rasa服務的開啟。我們可以對其進行訪問。具體訪問方式參照官網的介紹。
但是,這種部署方式有一種缺點,就是斷開與伺服器的連線後,這個服務也會自動關閉,嘗試過在docker中部署rasa-full,但是也無法一直後台執行。
最後,我們通過nohup來讓我們的服務後台執行。
上面的第4步改為:
nohup rasa run -m models --cors "*"
--debug &
通過這種方式,rasa可以作為乙個後台程序一直執行。
如果要結束該程序:
sudo netstat -ap | grep 5005
檢視占用5005埠(rasa服務埠)的程序pid是多少;
然後,
kill
-9 pid
來結束5005埠的占用,即停止rasa服務。 聊天機械人
我你好!小愛同學 小愛你好,很高興認識你!charset utf 8 css document 休息一會 sleep 1 獲取 使用者傳送的 訊息 可選 後端 對於 使用者發過來的 時候 是否 使用 可選 根據 傳送 過來的 訊息 返回 不同的內容 messagelist array 床前明月光,有...
chatbot聊天機械人環境搭建以及專案執行指南
根據專案readme檔案中的說明,專案對環境有一定的版本要求,推薦大家最好嚴格按照專案中的環境要求來安裝,包括版本也是。博主曾被版本問題虐得死去活來博主從來沒有安裝過錯誤版本。如圖上所示,該版本需要python3.5以及tensorflow1.3的環境,如果版本不匹配將會造成相容性問題,在下文中會詳...
聊天機械人ELIZA
1 在 自然語言理解 這本書的緒論中曾分析了聊天機械人eliza的設計機理,表明這是一種語言變換的技巧,而不是真正的 自然語言理解 午間休息時檢索了一下,找到了乙個它的連線 它並不如書中所舉的例子那樣的 聰明 也許因為這是第乙個聊天機械人,以及它並沒有真正採取 自然語言理解 的技術有關。下面是筆者與...