|  | 
| 1 | 1 | #include "common.hpp" | 
| 2 | 2 | #include "element_wise.hpp" | 
|  | 3 | +#include "ggml-impl.h" | 
| 3 | 4 | 
 | 
| 4 | 5 | void acc_f32(const float * x, const float * y, float * dst, const int ne, | 
| 5 | 6 |     const int ne10, const int ne11, const int ne12, | 
| @@ -883,148 +884,148 @@ inline void ggml_sycl_op_div(ggml_backend_sycl_context & ctx, const ggml_tensor | 
| 883 | 884 | 
 | 
| 884 | 885 | 
 | 
| 885 | 886 | void ggml_sycl_sqrt(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 886 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 887 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 887 | 888 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqrt); | 
| 888 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 889 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 889 | 890 | } | 
| 890 | 891 | 
 | 
| 891 | 892 | void ggml_sycl_sin(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 892 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 893 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 893 | 894 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sin); | 
| 894 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 895 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 895 | 896 | } | 
| 896 | 897 | 
 | 
| 897 | 898 | void ggml_sycl_cos(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 898 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 899 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 899 | 900 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_cos); | 
| 900 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 901 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 901 | 902 | } | 
| 902 | 903 | 
 | 
| 903 | 904 | void ggml_sycl_acc(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 904 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 905 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 905 | 906 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_acc); | 
| 906 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 907 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 907 | 908 | } | 
| 908 | 909 | 
 | 
| 909 | 910 | void ggml_sycl_gelu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 910 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 911 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 911 | 912 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu); | 
| 912 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 913 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 913 | 914 | } | 
| 914 | 915 | 
 | 
| 915 | 916 | void ggml_sycl_silu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 916 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 917 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 917 | 918 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_silu); | 
| 918 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 919 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 919 | 920 | } | 
| 920 | 921 | 
 | 
| 921 | 922 | void ggml_sycl_gelu_quick(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 922 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 923 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 923 | 924 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu_quick); | 
| 924 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 925 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 925 | 926 | } | 
| 926 | 927 | 
 | 
| 927 | 928 | void ggml_sycl_tanh(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 928 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 929 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 929 | 930 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_tanh); | 
| 930 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 931 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 931 | 932 | } | 
| 932 | 933 | 
 | 
| 933 | 934 | void ggml_sycl_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 934 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 935 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 935 | 936 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_relu); | 
| 936 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 937 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 937 | 938 | } | 
| 938 | 939 | 
 | 
| 939 | 940 | void ggml_sycl_sigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 940 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 941 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 941 | 942 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sigmoid); | 
| 942 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 943 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 943 | 944 | } | 
| 944 | 945 | 
 | 
| 945 | 946 | void ggml_sycl_hardsigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 946 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 947 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 947 | 948 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardsigmoid); | 
| 948 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 949 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 949 | 950 | } | 
| 950 | 951 | 
 | 
| 951 | 952 | void ggml_sycl_hardswish(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 952 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 953 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 953 | 954 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardswish); | 
| 954 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 955 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 955 | 956 | } | 
| 956 | 957 | 
 | 
| 957 | 958 | 
 | 
| 958 | 959 | void ggml_sycl_exp(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 959 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 960 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 960 | 961 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_exp); | 
| 961 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 962 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 962 | 963 | } | 
| 963 | 964 | 
 | 
| 964 | 965 | void ggml_sycl_log(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 965 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 966 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 966 | 967 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_log); | 
| 967 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 968 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 968 | 969 | } | 
| 969 | 970 | 
 | 
| 970 | 971 | void ggml_sycl_neg(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 971 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 972 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 972 | 973 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_neg); | 
| 973 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 974 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 974 | 975 | } | 
| 975 | 976 | 
 | 
| 976 | 977 | void ggml_sycl_step(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 977 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 978 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 978 | 979 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_step); | 
| 979 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 980 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 980 | 981 | } | 
| 981 | 982 | 
 | 
| 982 | 983 | void ggml_sycl_leaky_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 983 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 984 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 984 | 985 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_leaky_relu); | 
| 985 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 986 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 986 | 987 | } | 
| 987 | 988 | 
 | 
| 988 | 989 | void ggml_sycl_sqr(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 989 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 990 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 990 | 991 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqr); | 
| 991 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 992 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 992 | 993 | } | 
| 993 | 994 | 
 | 
| 994 | 995 | void ggml_sycl_upscale(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 995 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 996 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 996 | 997 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_upscale); | 
| 997 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 998 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 998 | 999 | } | 
| 999 | 1000 | 
 | 
| 1000 | 1001 | void ggml_sycl_pad(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 1001 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 1002 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 1002 | 1003 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_pad); | 
| 1003 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 1004 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 1004 | 1005 | } | 
| 1005 | 1006 | 
 | 
| 1006 | 1007 | 
 | 
| 1007 | 1008 | 
 | 
| 1008 | 1009 | void ggml_sycl_add(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 1009 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 1010 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 1010 | 1011 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_add); | 
| 1011 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 1012 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 1012 | 1013 | } | 
| 1013 | 1014 | 
 | 
| 1014 | 1015 | void ggml_sycl_sub(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 1015 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 1016 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 1016 | 1017 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sub); | 
| 1017 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 1018 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 1018 | 1019 | } | 
| 1019 | 1020 | 
 | 
| 1020 | 1021 | void ggml_sycl_mul(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 1021 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 1022 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 1022 | 1023 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_mul); | 
| 1023 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 1024 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 1024 | 1025 | } | 
| 1025 | 1026 | 
 | 
| 1026 | 1027 | void ggml_sycl_div(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { | 
| 1027 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__); | 
|  | 1028 | +    GGML_LOG_DEBUG("call %s\n", __func__); | 
| 1028 | 1029 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_div); | 
| 1029 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__); | 
|  | 1030 | +    GGML_LOG_DEBUG("call %s done\n", __func__); | 
| 1030 | 1031 | } | 
0 commit comments