| 
1 | 1 | #include "common.hpp"  | 
2 | 2 | #include "element_wise.hpp"  | 
 | 3 | +#include "ggml-impl.h"  | 
3 | 4 | 
 
  | 
4 | 5 | void acc_f32(const float * x, const float * y, float * dst, const int ne,  | 
5 | 6 |     const int ne10, const int ne11, const int ne12,  | 
@@ -883,148 +884,148 @@ inline void ggml_sycl_op_div(ggml_backend_sycl_context & ctx, const ggml_tensor  | 
883 | 884 | 
 
  | 
884 | 885 | 
 
  | 
885 | 886 | void ggml_sycl_sqrt(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
886 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 887 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
887 | 888 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqrt);  | 
888 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 889 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
889 | 890 | }  | 
890 | 891 | 
 
  | 
891 | 892 | void ggml_sycl_sin(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
892 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 893 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
893 | 894 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sin);  | 
894 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 895 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
895 | 896 | }  | 
896 | 897 | 
 
  | 
897 | 898 | void ggml_sycl_cos(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
898 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 899 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
899 | 900 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_cos);  | 
900 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 901 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
901 | 902 | }  | 
902 | 903 | 
 
  | 
903 | 904 | void ggml_sycl_acc(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
904 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 905 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
905 | 906 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_acc);  | 
906 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 907 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
907 | 908 | }  | 
908 | 909 | 
 
  | 
909 | 910 | void ggml_sycl_gelu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
910 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 911 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
911 | 912 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu);  | 
912 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 913 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
913 | 914 | }  | 
914 | 915 | 
 
  | 
915 | 916 | void ggml_sycl_silu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
916 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 917 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
917 | 918 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_silu);  | 
918 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 919 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
919 | 920 | }  | 
920 | 921 | 
 
  | 
921 | 922 | void ggml_sycl_gelu_quick(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
922 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 923 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
923 | 924 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu_quick);  | 
924 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 925 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
925 | 926 | }  | 
926 | 927 | 
 
  | 
927 | 928 | void ggml_sycl_tanh(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
928 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 929 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
929 | 930 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_tanh);  | 
930 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 931 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
931 | 932 | }  | 
932 | 933 | 
 
  | 
933 | 934 | void ggml_sycl_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
934 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 935 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
935 | 936 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_relu);  | 
936 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 937 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
937 | 938 | }  | 
938 | 939 | 
 
  | 
939 | 940 | void ggml_sycl_sigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
940 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 941 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
941 | 942 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sigmoid);  | 
942 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 943 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
943 | 944 | }  | 
944 | 945 | 
 
  | 
945 | 946 | void ggml_sycl_hardsigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
946 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 947 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
947 | 948 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardsigmoid);  | 
948 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 949 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
949 | 950 | }  | 
950 | 951 | 
 
  | 
951 | 952 | void ggml_sycl_hardswish(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
952 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 953 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
953 | 954 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardswish);  | 
954 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 955 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
955 | 956 | }  | 
956 | 957 | 
 
  | 
957 | 958 | 
 
  | 
958 | 959 | void ggml_sycl_exp(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
959 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 960 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
960 | 961 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_exp);  | 
961 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 962 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
962 | 963 | }  | 
963 | 964 | 
 
  | 
964 | 965 | void ggml_sycl_log(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
965 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 966 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
966 | 967 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_log);  | 
967 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 968 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
968 | 969 | }  | 
969 | 970 | 
 
  | 
970 | 971 | void ggml_sycl_neg(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
971 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 972 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
972 | 973 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_neg);  | 
973 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 974 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
974 | 975 | }  | 
975 | 976 | 
 
  | 
976 | 977 | void ggml_sycl_step(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
977 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 978 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
978 | 979 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_step);  | 
979 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 980 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
980 | 981 | }  | 
981 | 982 | 
 
  | 
982 | 983 | void ggml_sycl_leaky_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
983 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 984 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
984 | 985 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_leaky_relu);  | 
985 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 986 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
986 | 987 | }  | 
987 | 988 | 
 
  | 
988 | 989 | void ggml_sycl_sqr(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
989 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 990 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
990 | 991 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqr);  | 
991 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 992 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
992 | 993 | }  | 
993 | 994 | 
 
  | 
994 | 995 | void ggml_sycl_upscale(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
995 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 996 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
996 | 997 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_upscale);  | 
997 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 998 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
998 | 999 | }  | 
999 | 1000 | 
 
  | 
1000 | 1001 | void ggml_sycl_pad(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
1001 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 1002 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
1002 | 1003 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_pad);  | 
1003 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 1004 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
1004 | 1005 | }  | 
1005 | 1006 | 
 
  | 
1006 | 1007 | 
 
  | 
1007 | 1008 | 
 
  | 
1008 | 1009 | void ggml_sycl_add(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
1009 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 1010 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
1010 | 1011 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_add);  | 
1011 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 1012 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
1012 | 1013 | }  | 
1013 | 1014 | 
 
  | 
1014 | 1015 | void ggml_sycl_sub(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
1015 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 1016 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
1016 | 1017 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sub);  | 
1017 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 1018 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
1018 | 1019 | }  | 
1019 | 1020 | 
 
  | 
1020 | 1021 | void ggml_sycl_mul(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
1021 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 1022 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
1022 | 1023 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_mul);  | 
1023 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 1024 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
1024 | 1025 | }  | 
1025 | 1026 | 
 
  | 
1026 | 1027 | void ggml_sycl_div(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {  | 
1027 |  | -    GGML_SYCL_DEBUG("call %s\n", __func__);  | 
 | 1028 | +    GGML_LOG_DEBUG("call %s\n", __func__);  | 
1028 | 1029 |     ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_div);  | 
1029 |  | -    GGML_SYCL_DEBUG("call %s done\n", __func__);  | 
 | 1030 | +    GGML_LOG_DEBUG("call %s done\n", __func__);  | 
1030 | 1031 | }  | 
0 commit comments