Menghan465把huggingface上的模型直接下载下来,怎么用进web-llm? 中发帖

它的"model": “/url/to/my/llama”,所以我想先异步读取为 Blob,再生成Blob URL,但我非常不了解webllm它用的是什么文件,它文件很多, 
[image]
于是就直接拿模型所在文件夹来弄,结果报错了,
Uncaught (in promise) Error: Error invoking remote method 'blob-convert': Error: EISDIR: illegal operation on a directory, read

但看官方文档有直接用huggingface上模型的url,比如这个:
model_list: [
{
model: "https://huggingface.co/mlc-ai/Llama-3-8B-Instruct-q4f32_1-MLC",
model_id...