Hiện tại mình đang định sử dụng MLP với hàm ReLU cho bài toán XOR bằng framework Neuroph (Java)
Tuy nhiên không rõ vì sao mà khi chạy với sigmoid thì ok, nhưng dùng ReLU và Tanh thì lại có vần đề MSE. cụ thể là với ReLU thì MSE đứng tại 0.25 và tanh thì tại 1.25. Chi tiết bài toán mình có post tại forum của framwork này.
Cảm ơn mọi người.
Tuy nhiên không rõ vì sao mà khi chạy với sigmoid thì ok, nhưng dùng ReLU và Tanh thì lại có vần đề MSE. cụ thể là với ReLU thì MSE đứng tại 0.25 và tanh thì tại 1.25. Chi tiết bài toán mình có post tại forum của framwork này.
Cảm ơn mọi người.
Comment