morrussa (@morusa)关于LuaJIT在深度学习里的地位问题 中发帖

破事水。 
如题,我最近在做一个AI vtuber框架。
之前那个mori的帖子就是其中的memory,目前memory重构了,变成了独立的mori_memory仓库
然后开始思索:如何在不引入python的情况下做完呢?面对之前把torch7牛走变成了pytorch的黄毛,lua应该如何解决?
然后掏出了ffi.load
然后我到今天突然发现python的生态壁垒简直就是笑话
因为python的性能太慢,所以流行的python库是核心很多都是纯c/cpp实现
然后我发现luaJIT实际上比python更适合当胶水,因为跨语言开销更小
python的cffi调用延迟是50-200ns,而luaJIT的ffi.load调用延迟是惊人的1-5ns延迟!c#之下根本没有对手。!
但是c#要编译哎,直接分配内存,直接写AVX2的话我为什么不用纯c模块呢?反正luaJIT调c模块的速...