关于optim.step

pytorch的优化器step函数允许传入一个闭包函数,这样在编写例如l-bfgs的二阶优化器的时候会很有帮助,jittor有没有类似的功能或者解决办法呢?最近在尝试实现一个jittor的l-bfgs优化器的时候遇到了问题,如果仿照pytorch的版本改写并在step中传入闭包函数的话,没有办法进行梯度更新