Story Flicks
Story Flicks簡(jiǎn)介
Story Flicks是一款開(kāi)源的基于ai大模型打造的故事短視頻生成工具。它把先進(jìn)的語(yǔ)言模型和圖像生成技術(shù)融合起來(lái),依據(jù)用戶輸入的故事主題,能夠迅速生成包含AI生成圖像、故事內(nèi)容以及音頻的視頻。它主要提供一鍵生成高清短視頻的服務(wù),很適合那些想要快速制作視覺(jué)內(nèi)容的創(chuàng)作者、教育者以及市場(chǎng)推廣人員。

功能特征:
智能生成:用戶僅輸入故事主題或者關(guān)鍵字,系統(tǒng)就能自動(dòng)生成對(duì)應(yīng)的短視頻,并且短時(shí)間內(nèi)能給出多種創(chuàng)意成果。
多語(yǔ)言支持:Story Flicks能夠支持多種語(yǔ)言,用戶能按照自身需求挑選合適的語(yǔ)言來(lái)生成內(nèi)容,這提升了使用時(shí)的便利性與靈活性。
圖像與音頻結(jié)合:Story Flicks除了能生成文本內(nèi)容和故事情節(jié),還能給視頻添加由AI生成的圖像以及背景音效,整體上增強(qiáng)了視頻的觀賞性。
多模態(tài)生成:Story Flicks通過(guò)大語(yǔ)言模型(LLM)進(jìn)行智能解析,能夠綜合構(gòu)建敘事框架,同步融合視覺(jué)、聽(tīng)覺(jué)和文本元素。也就是說(shuō)它不但能生成文本故事,還能自動(dòng)創(chuàng)造出與故事相匹配的AI圖像、動(dòng)態(tài)語(yǔ)音旁白和智能字幕。
AI圖像生成:Story Flicks運(yùn)用圖像生成技術(shù),給故事里的場(chǎng)景和角色營(yíng)造出生動(dòng)的視覺(jué)效果,讓生成的視頻內(nèi)容在視覺(jué)上有很強(qiáng)的吸引力。
一體化音頻制作:其中包含動(dòng)態(tài)語(yǔ)音旁白,這就意味著用戶不需要額外去錄制或者尋找音頻素材,系統(tǒng)會(huì)自動(dòng)根據(jù)故事內(nèi)容生成語(yǔ)音。
智能字幕:能夠自動(dòng)編排字幕,這既便于聽(tīng)障用戶理解視頻內(nèi)容,也提高了視頻的可訪問(wèn)性。
技術(shù)棧:后端運(yùn)用Python和FastAPI,前端采用React、Ant Design和Vite,以此確保系統(tǒng)高效穩(wěn)定運(yùn)行,為用戶提供良好的開(kāi)發(fā)體驗(yàn)。
應(yīng)用場(chǎng)景:
創(chuàng)意內(nèi)容制作:適合短視頻博主、自媒體網(wǎng)絡(luò)紅人還有營(yíng)銷人員,通過(guò)快速制作豐富的視覺(jué)故事來(lái)提升效率。
教育與培訓(xùn):在教育行業(yè)中大有用處,能夠?yàn)閷W(xué)員提供直觀的學(xué)習(xí)素材,例如教育性的短視頻內(nèi)容。
娛樂(lè)與廣告:娛樂(lè)行業(yè)的從業(yè)者以及廣告制作人員可以借助它迅速創(chuàng)作宣傳視頻。
個(gè)人用途:普通個(gè)人用戶也能夠輕松制作紀(jì)念視頻、進(jìn)行故事分享等。
Story Flicks的使用方法:

1. 下載本項(xiàng)目:
git clone https://github.com/alecm20/story-flicks.git
2. 設(shè)置模型信息
# 先切換到項(xiàng)目的 backend 目錄下 cd backend cp .env.example .env text_provider="openai" # 文本生成模型的提供商,目前支持 openai和 aliyun、deepseek、ollama、siliconflow,阿里云文檔:https://www.aliyun.com/product/bailian image_provider="aliyun" # 圖片生成模型的提供商,目前支持 openai和 aliyun、siliconflow openai_base_url="https://api.openai.com/v1" # openai 的 baseUrl aliyun_base_url="https://dashscope.aliyuncs.com/compatible-mode/v1" # 阿里云的 baseUrl deepseek_base_url="https://api.deepseek.com/v1" # deepseek 的 baseUrl ollama_base_url="http://localhost:11434/v1" # ollama 的 baseUrl siliconflow_base_url="https://api.siliconflow.cn/v1" # siliconflow 的 baseUrl openai_api_key= # openai 的 api key,可以只填一個(gè) aliyun_api_key= # 阿里云百煉的 api key,可以只填一個(gè) deepseek_api_key= # deepseek 的 api key,目前該 api_key 只支持文本生成 ollama_api_key= # 如果需要使用的話,請(qǐng)?zhí)顚憃llama,目前該 api_key 只支持文本生成,并且不能用參數(shù)量太小的模型,推薦qwen2.5:14b 或者更大的模型。 siliconflow_api_key= # siliconflow 的文本模型目前只支持兼容 OpenAI 格式的大模型,如:Qwen/Qwen2.5-7B-Instruct。圖像模型只測(cè)試了:black-forest-labs/FLUX.1-dev text_llm_model=gpt-4o # 如果 text_provider 設(shè)置為 openai,這里只能填 OpenAI 的模型,如:gpt-4o。如果設(shè)置了 aliyun,可以填阿里云的大模型,如:qwen-plus 或者 qwen-max。ollama 的模型不能使用體積太小的模型,否則無(wú)法輸出正確的 json,可以使用如:qwen2.5:14b 或更大的模型。 image_llm_model=flux-dev # 如果 image_provider 設(shè)置為 openai,這里只能填 OpenAI 的模型,如:dall-e-3。如果設(shè)置了 aliyun,可以填阿里云的大模型,阿里云推薦使用:flux-dev,目前可以免費(fèi)試用,具體參考:https://help.aliyun.com/zh/model-studio/getting-started/models#a1a9f05a675m4。
3. 通過(guò)docker啟動(dòng)項(xiàng)目
在項(xiàng)目根目錄下,執(zhí)行:
docker-compose up --build
4. 開(kāi)始使用
輸入故事主題:在生成工具的界面,選擇文本生成模型提供商、圖片生成模型提供商、文本模型、圖片生成模型、視頻使用的語(yǔ)言、聲音、故事主題以及故事段落。
視頻生成:點(diǎn)擊生成按鈕后,系統(tǒng)會(huì)基于AI技術(shù)展開(kāi)處理,幾秒鐘內(nèi)就能夠生成最終的視頻。
相關(guān)資訊:
提交您的產(chǎn)品
Ai應(yīng)用
Ai資訊
AI生圖
AI生視頻
開(kāi)源AI應(yīng)用平臺(tái)






