Dataset Viewer
Auto-converted to Parquet Duplicate
dataset
stringclasses
1 value
file
stringlengths
7
51
fun_name
stringlengths
2
45
llvm_ir_function
stringlengths
61
121k
label
stringclasses
2 values
CompRealVul
vgacon_switch_6847
vgacon_switch
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %3 = trunc i64 %1 to i32 %4 = add i64 %2, 4 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = add i64 %2, 8 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 store i32 %3, i32* @gv_0, align 4 %10 = load i32, i32* %5, align 4 store i32 %10, i32* @gv_1, align 4 %11 = load i32, i32* @gv_2, align 4 %12 = icmp eq i32 %11, 0 %13 = icmp eq i1 %12, false br i1 %13, label LBL_5, label LBL_1 LBL_1: %14 = load i32, i32* @gv_3, align 4 %15 = load i32, i32* @gv_4, align 4 %16 = mul i32 %9, %6 %17 = mul i32 %3, 8 %18 = add i64 %2, 32 %19 = inttoptr i64 %18 to i32* %20 = load i32, i32* %19, align 4 %21 = load i32, i32* @gv_5, align 4 %22 = sub i32 %20, %21 %23 = xor i32 %21, %20 %24 = xor i32 %22, %20 %25 = and i32 %24, %23 %26 = icmp slt i32 %25, 0 %27 = icmp eq i32 %22, 0 %28 = icmp slt i32 %22, 0 %29 = icmp eq i1 %28, %26 %30 = icmp eq i1 %27, false %31 = icmp eq i1 %29, %30 %32 = select i1 %31, i32 %21, i32 %20 %33 = add i64 %2, 24 %34 = inttoptr i64 %33 to i64* %35 = load i64, i64* %34, align 8 %36 = add i64 %2, 16 %37 = inttoptr i64 %36 to i64* %38 = load i64, i64* %37, align 8 %39 = call i64 @FUNC(i64 %38, i64 %35, i32 %32) %40 = load i32, i32* @gv_6, align 4 %41 = icmp eq i32 %17, %40 %42 = load i32, i32* @gv_7, align 4 %43 = icmp eq i32 %16, %42 %or.cond = icmp eq i1 %41, %43 br i1 %or.cond, label LBL_5, label LBL_2 LBL_2: %44 = load i32, i32* @gv_0, align 4 %45 = urem i32 %44, 2 %46 = icmp eq i32 %45, 0 %47 = icmp eq i1 %46, false %48 = load i32, i32* @gv_8, align 4 %49 = icmp ult i32 %48, %44 %or.cond3 = or i1 %49, %47 br i1 %or.cond3, label LBL_5, label LBL_3 LBL_3: %50 = mul i32 %15, %14 %51 = ashr i32 %50, 31 %52 = zext i32 %50 to i64 %53 = zext i32 %51 to i64 %54 = mul i64 %53, 4294967296 %55 = or i64 %54, %52 %56 = zext i32 %9 to i64 %57 = sdiv i64 %55, %56 %58 = load i32, i32* @gv_1, align 4 %59 = zext i32 %58 to i64 %sext = mul i64 %57, 4294967296 %60 = ashr exact i64 %sext, 32 %61 = icmp slt i64 %60, %59 br i1 %61, label LBL_5, label LBL_4 LBL_4: %62 = load i32, i32* %5, align 4 %63 = and i64 %1, 4294967295 %64 = call i64 @FUNC(i64 %2, i64 %63, i32 %62) br label LBL_5 LBL_5: ret i64 0 uselistorder i32 %44, { 1, 0 } uselistorder i32 %22, { 1, 2, 0 } uselistorder i32 %21, { 1, 0, 2 } uselistorder i32 %20, { 2, 0, 1, 3 } uselistorder i32 %9, { 1, 0 } uselistorder i64 %2, { 0, 2, 3, 1, 4, 5 } uselistorder i64 %1, { 1, 0 } uselistorder i32* @gv_1, { 1, 0 } uselistorder i32 0, { 9, 10, 11, 12, 13, 0, 1, 2, 3, 4, 5, 6, 7, 8 } uselistorder i32* @gv_0, { 1, 0 } uselistorder label LBL_5, { 1, 2, 3, 0, 4 } }
0
CompRealVul
dec_modu_14625
dec_modu
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %3 = add i64 %2, 4 %4 = inttoptr i64 %3 to i32* %5 = load i32, i32* %4, align 4 %6 = trunc i64 %1 to i32 %7 = add i64 %2, 8 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 %10 = zext i32 %9 to i64 %11 = call i64 @FUNC(i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_0, i64 0, i64 0), i64 %10, i32 %6, i32 %5) %12 = add i64 %2, 16 %13 = inttoptr i64 %12 to i64* %14 = load i64, i64* %13, align 8 %15 = inttoptr i64 %14 to i32* %16 = load i32, i32* %15, align 4 %17 = urem i32 %16, 2 %18 = icmp eq i32 %17, 0 %19 = icmp eq i1 %18, false br i1 %19, label LBL_2, label LBL_1 LBL_1: %20 = call i64 @FUNC(i64 %14, i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_1, i64 0, i64 0)) unreachable LBL_2: %21 = call i64 @FUNC() %22 = load i32, i32* %4, align 4 %23 = sext i32 %22 to i64 %24 = mul i64 %23, 4 %25 = add i64 %24, ptrtoint (i32** @gv_2 to i64) %26 = inttoptr i64 %25 to i32* %27 = load i32, i32* %26, align 4 %28 = and i64 %21, 4294967295 %29 = zext i32 %27 to i64 %30 = call i64 @FUNC(i64 1, i64 %29, i64 0, i64 %28) %31 = add i64 %2, 12 %32 = inttoptr i64 %31 to i32* %33 = load i32, i32* %32, align 4 %34 = load i32, i32* @gv_3, align 4 %35 = zext i32 %33 to i64 %36 = zext i32 %34 to i64 %37 = call i64 @FUNC(i64 %36, i64 %35) %38 = call i64 @FUNC(i64 %2, i64 1) %39 = call i64 @FUNC(i64 %28) %40 = load i32, i32* %4, align 4 %41 = sext i32 %40 to i64 %42 = mul i64 %41, 4 %43 = add i64 %42, ptrtoint (i32** @gv_2 to i64) %44 = inttoptr i64 %43 to i32* %45 = load i32, i32* %44, align 4 %sext = mul i64 %1, 4294967296 %46 = ashr exact i64 %sext, 30 %47 = add i64 %46, ptrtoint (i32** @gv_2 to i64) %48 = inttoptr i64 %47 to i32* %49 = load i32, i32* %48, align 4 %50 = load i32, i32* %8, align 4 %51 = sext i32 %50 to i64 %52 = mul i64 %51, 4 %53 = add i64 %52, ptrtoint (i32** @gv_2 to i64) %54 = inttoptr i64 %53 to i32* %55 = load i32, i32* %54, align 4 %56 = zext i32 %49 to i64 %57 = zext i32 %55 to i64 %58 = call i64 @FUNC(i64 %57, i64 %56, i32 %45) ret i64 %58 uselistorder i64 %1, { 1, 0 } }
1
CompRealVul
stbi__jpeg_decode_block_prog_dc_13002
stbi__jpeg_decode_block_prog_dc
define i64 @FUNC(i32* %arg1, i64* %arg2, i64* %arg3, i32 %arg4) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %storemerge2.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = trunc i64 %1 to i32 %4 = icmp eq i32 %3, 0 br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0)) store i64 %5, i64* %rax.0.reg2mem br label LBL_12 LBL_2: %6 = ptrtoint i32* %arg1 to i64 %7 = add i64 %6, 4 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 %10 = icmp sgt i32 %9, 15 br i1 %10, label LBL_4, label LBL_3 LBL_3: %11 = call i64 @FUNC(i64 %6) br label LBL_4 LBL_4: %12 = add i64 %6, 24 %13 = inttoptr i64 %12 to i32* %14 = load i32, i32* %13, align 4 %15 = icmp eq i32 %14, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_10, label LBL_5 LBL_5: %17 = ptrtoint i64* %arg3 to i64 %18 = call i64* @memset(i64* %arg2, i32 0, i32 128) %19 = call i64 @FUNC(i64 %6, i64 %17) %20 = trunc i64 %19 to i32 %21 = icmp eq i32 %20, -1 %22 = icmp eq i1 %21, false br i1 %22, label LBL_7, label LBL_6 LBL_6: %23 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0)) store i64 %23, i64* %rax.0.reg2mem br label LBL_12 LBL_7: %24 = icmp eq i32 %20, 0 store i32 0, i32* %storemerge2.reg2mem br i1 %24, label LBL_9, label LBL_8 LBL_8: %25 = and i64 %19, 4294967295 %26 = call i64 @FUNC(i64 %6, i64 %25) %phitmp = trunc i64 %26 to i32 store i32 %phitmp, i32* %storemerge2.reg2mem br label LBL_9 LBL_9: %storemerge2.reload = load i32, i32* %storemerge2.reg2mem %27 = sext i32 %arg4 to i64 %28 = mul i64 %27, 4 %29 = add i64 %6, 8 %30 = add i64 %29, %28 %31 = inttoptr i64 %30 to i32* %32 = load i32, i32* %31, align 4 %33 = add i32 %32, %storemerge2.reload store i32 %33, i32* %31, align 4 %34 = add i64 %6, 28 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = urem i32 %36, 32 %38 = shl i32 %33, %37 %39 = trunc i32 %38 to i16 %40 = bitcast i64* %arg2 to i16* store i16 %39, i16* %40, align 2 store i64 1, i64* %rax.0.reg2mem br label LBL_12 LBL_10: %41 = call i64 @FUNC(i64 %6) %42 = trunc i64 %41 to i32 %43 = icmp eq i32 %42, 0 store i64 1, i64* %rax.0.reg2mem br i1 %43, label LBL_12, label LBL_11 LBL_11: %44 = trunc i64 %2 to i16 %45 = add i64 %6, 28 %46 = inttoptr i64 %45 to i32* %47 = load i32, i32* %46, align 4 %48 = urem i32 %47, 32 %49 = shl i32 1, %48 %50 = trunc i32 %49 to i16 %51 = add i16 %50, %44 %52 = bitcast i64* %arg2 to i16* store i16 %51, i16* %52, align 2 store i64 1, i64* %rax.0.reg2mem br label LBL_12 LBL_12: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %6, { 4, 6, 1, 2, 0, 3, 5, 7, 8 } uselistorder i32* %storemerge2.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 5, 4 } uselistorder i64* %0, { 1, 0 } uselistorder i64 1, { 2, 1, 0 } uselistorder i64 (i8*, i8*)* @stbi__err, { 1, 0 } uselistorder label LBL_12, { 2, 1, 0, 3, 4 } uselistorder label LBL_9, { 1, 0 } }
1
CompRealVul
cache_resize_14920
cache_resize
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi.0.reg2mem = alloca i64 %rdi.11.reg2mem = alloca i64 %storemerge2.reg2mem = alloca i64 %0 = and i64 %arg1, 4294967295 %1 = call i64 @FUNC(i64 %0) %2 = icmp eq i64 %0, 0 %3 = icmp eq i1 %2, false store i64 -1, i64* %rax.0.reg2mem br i1 %3, label LBL_1, label LBL_13 LBL_1: %4 = call i64 @FUNC(i64 %arg2) %5 = add i64 %arg1, 8 %6 = inttoptr i64 %5 to i64* %7 = load i64, i64* %6, align 8 %8 = icmp eq i64 %4, %7 %9 = icmp eq i1 %8, false store i64 %7, i64* %rax.0.reg2mem br i1 %9, label LBL_2, label LBL_13 LBL_2: %10 = add i64 %arg1, 24 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = call i64 @FUNC(i64 %arg2, i64 %12) %14 = icmp eq i64 %13, 0 %15 = icmp eq i1 %14, false br i1 %15, label LBL_3, label LBL_4 LBL_3: %16 = load i64, i64* %6, align 8 %17 = icmp sgt i64 %16, 0 store i64 0, i64* %storemerge2.reg2mem store i64 %arg2, i64* %rdi.11.reg2mem br i1 %17, label LBL_5, label LBL_12 LBL_4: %18 = call i64 @FUNC(i8* getelementptr inbounds ([26 x i8], [26 x i8]* @gv_0, i64 0, i64 0)) store i64 -1, i64* %rax.0.reg2mem br label LBL_13 LBL_5: %rdi.11.reload = load i64, i64* %rdi.11.reg2mem %storemerge2.reload = load i64, i64* %storemerge2.reg2mem %19 = mul i64 %storemerge2.reload, 24 %20 = add i64 %19, %rdi.11.reload %21 = inttoptr i64 %20 to i64* %22 = load i64, i64* %21, align 8 %23 = icmp eq i64 %22, -1 store i64 %rdi.11.reload, i64* %rdi.0.reg2mem br i1 %23, label LBL_11, label LBL_6 LBL_6: %24 = call i64 @FUNC(i64 %13, i64 %22) %25 = add i64 %24, 8 %26 = inttoptr i64 %25 to i64* %27 = load i64, i64* %26, align 8 %28 = icmp eq i64 %27, 0 br i1 %28, label LBL_10, label LBL_7 LBL_7: %29 = add i64 %24, 16 %30 = inttoptr i64 %29 to i64* %31 = load i64, i64* %30, align 8 %32 = add i64 %20, 16 %33 = inttoptr i64 %32 to i64* %34 = load i64, i64* %33, align 8 %35 = icmp slt i64 %31, %34 br i1 %35, label LBL_9, label LBL_8 LBL_8: %36 = add i64 %20, 8 %37 = inttoptr i64 %36 to i64* %38 = load i64, i64* %37, align 8 %39 = call i64 @FUNC(i64 %38) store i64 %38, i64* %rdi.0.reg2mem br label LBL_11 LBL_9: %40 = call i64 @FUNC(i64 %27) %41 = add i64 %20, 8 %42 = inttoptr i64 %41 to i64* %43 = load i64, i64* %42, align 8 store i64 %43, i64* %26, align 8 %44 = load i64, i64* %33, align 8 store i64 %44, i64* %30, align 8 %45 = load i64, i64* %21, align 8 %46 = inttoptr i64 %24 to i64* store i64 %45, i64* %46, align 8 store i64 %27, i64* %rdi.0.reg2mem br label LBL_11 LBL_10: %47 = add i64 %20, 8 %48 = inttoptr i64 %47 to i64* %49 = load i64, i64* %48, align 8 %50 = load i64, i64* %21, align 8 %51 = call i64 @FUNC(i64 %13, i64 %50, i64 %49) store i64 %13, i64* %rdi.0.reg2mem br label LBL_11 LBL_11: %rdi.0.reload = load i64, i64* %rdi.0.reg2mem %52 = add nuw nsw i64 %storemerge2.reload, 1 %53 = load i64, i64* %6, align 8 %54 = icmp slt i64 %52, %53 store i64 %52, i64* %storemerge2.reg2mem store i64 %rdi.0.reload, i64* %rdi.11.reg2mem br i1 %54, label LBL_5, label LBL_12 LBL_12: %55 = inttoptr i64 %13 to i64* %56 = load i64, i64* %55, align 8 %57 = inttoptr i64 %arg1 to i64* store i64 %56, i64* %57, align 8 %58 = add i64 %13, 8 %59 = inttoptr i64 %58 to i64* %60 = load i64, i64* %59, align 8 store i64 %60, i64* %6, align 8 %61 = add i64 %13, 16 %62 = inttoptr i64 %61 to i64* %63 = load i64, i64* %62, align 8 %64 = add i64 %arg1, 16 %65 = inttoptr i64 %64 to i64* store i64 %63, i64* %65, align 8 %66 = call i64 @FUNC(i64 %13) %67 = load i64, i64* %6, align 8 store i64 %67, i64* %rax.0.reg2mem br label LBL_13 LBL_13: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %21, { 1, 0, 2 } uselistorder i64 %20, { 3, 0, 2, 1, 4 } uselistorder i64 %13, { 1, 2, 3, 4, 0, 5, 6, 7 } uselistorder i64* %6, { 1, 2, 3, 0, 4 } uselistorder i64 %0, { 1, 0 } uselistorder i64* %storemerge2.reg2mem, { 2, 0, 1 } uselistorder i64* %rdi.11.reg2mem, { 2, 0, 1 } uselistorder i64* %rdi.0.reg2mem, { 0, 3, 2, 1, 4 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 } uselistorder i64 1, { 1, 2, 3, 4, 0 } uselistorder i64 16, { 2, 3, 0, 1, 4, 5, 6 } uselistorder i64 24, { 0, 3, 1, 2, 4 } uselistorder i64 -1, { 2, 1, 0, 3 } uselistorder i32 1, { 4, 3, 2, 1, 10, 11, 0, 6, 5, 8, 7, 9 } uselistorder i64 %arg1, { 0, 1, 3, 2, 4 } uselistorder label LBL_13, { 2, 3, 0, 1 } uselistorder label LBL_5, { 1, 0 } }
1
CompRealVul
network_init_16142
network_init
define i64 @FUNC() local_unnamed_addr { LBL_0: %.lcssa.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i8* %storemerge2.reg2mem = alloca i32 %.reg2mem = alloca i64 %0 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4 %1 = icmp eq i32 %0, 0 store i64 0, i64* %.reg2mem store i32 0, i32* %storemerge2.reg2mem store i64 0, i64* %.lcssa.reg2mem br i1 %1, label LBL_6, label LBL_1 LBL_1: %storemerge2.reload = load i32, i32* %storemerge2.reg2mem %.reload = load i64, i64* %.reg2mem %2 = mul i64 %.reload, 8 %3 = add i64 %2, ptrtoint (i64* @gv_0 to i64) %4 = icmp eq i32 %storemerge2.reload, 0 %5 = icmp eq i1 %4, false store i8* null, i8** %sv_0.0.reg2mem br i1 %5, label LBL_5, label LBL_2 LBL_2: %6 = inttoptr i64 %3 to i64* %7 = load i64, i64* %6, align 8 %8 = icmp eq i64 %7, 0 br i1 %8, label LBL_4, label LBL_3 LBL_3: %9 = inttoptr i64 %7 to i8* %10 = call i32 @strcmp(i8* %9, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0)) %11 = icmp eq i32 %10, 0 %12 = icmp eq i1 %11, false store i8* null, i8** %sv_0.0.reg2mem br i1 %12, label LBL_5, label LBL_4 LBL_4: store i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i8** %sv_0.0.reg2mem br label LBL_5 LBL_5: %sv_0.0.reload = load i8*, i8** %sv_0.0.reg2mem %13 = ptrtoint i8* %sv_0.0.reload to i64 %14 = call i64 @FUNC(i64 %3, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i64 %13) %15 = add i32 %storemerge2.reload, 1 %16 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4 %17 = zext i32 %16 to i64 %18 = sext i32 %15 to i64 %19 = icmp slt i64 %18, %17 store i64 %18, i64* %.reg2mem store i32 %15, i32* %storemerge2.reg2mem store i64 %17, i64* %.lcssa.reg2mem br i1 %19, label LBL_1, label LBL_6 LBL_6: %.lcssa.reload = load i64, i64* %.lcssa.reg2mem ret i64 %.lcssa.reload uselistorder i64 %3, { 1, 0 } uselistorder i64* %.reg2mem, { 2, 0, 1 } uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 } uselistorder i8** %sv_0.0.reg2mem, { 0, 2, 1, 3 } uselistorder i32 0, { 2, 3, 0, 1 } uselistorder i32* inttoptr (i64 4210724 to i32*), { 1, 0 } uselistorder i32 1, { 5, 4, 3, 2, 1, 0 } uselistorder label LBL_1, { 1, 0 } }
1
CompRealVul
parseCertFields_5362
parseCertFields
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64* %arg4) local_unnamed_addr { LBL_0: %sv_0.1.reg2mem = alloca i64 %.pre-phi.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg4 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_2 = alloca i64, align 8 store i64 %0, i64* %sv_1.0.reg2mem store i64 %0, i64* %sv_0.0.reg2mem br label LBL_1 LBL_1: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %2 = inttoptr i64 %sv_1.0.reload to i8* %3 = load i8, i8* %2, align 1 %4 = icmp ne i8 %3, 47 %5 = icmp eq i8 %3, 0 %6 = icmp eq i1 %5, false %or.cond = icmp eq i1 %4, %6 br i1 %or.cond, label LBL_1.LBL_4_crit_edge, label LBL_3 LBL_2: %.pre = add i64 %sv_1.0.reload, 1 store i64 %.pre, i64* %.pre-phi.reg2mem store i64 %sv_0.0.reload, i64* %sv_0.1.reg2mem br label LBL_4 LBL_3: store i8 0, i8* %2, align 1 %7 = call i64 @FUNC(i64 %sv_0.0.reload, i64* nonnull @gv_0, i64* nonnull %sv_2) %8 = call i64 @FUNC(i64 %7, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_1, i64 0, i64 0)) %9 = trunc i64 %8 to i32 %10 = icmp eq i32 %9, 0 %11 = load i64, i64* %sv_2, align 8 %12 = select i1 %10, i64 %7, i64 ptrtoint ([6 x i8]* @gv_2 to i64) %13 = call i64 @FUNC(i64 %1, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_3, i64 0, i64 0), i64 %arg2, i64 %arg3, i64 %12, i64 %11) %14 = add i64 %sv_1.0.reload, 1 store i8 %3, i8* %2, align 1 store i64 %14, i64* %.pre-phi.reg2mem store i64 %14, i64* %sv_0.1.reg2mem br label LBL_4 LBL_4: %sv_0.1.reload = load i64, i64* %sv_0.1.reg2mem %.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem store i64 %.pre-phi.reload, i64* %sv_1.0.reg2mem store i64 %sv_0.1.reload, i64* %sv_0.0.reg2mem br i1 %6, label LBL_1, label LBL_5 LBL_5: %15 = zext i8 %3 to i64 ret i64 %15 uselistorder i1 %6, { 1, 0 } uselistorder i8 %3, { 0, 2, 1, 3 } uselistorder i64 %sv_1.0.reload, { 1, 2, 0 } uselistorder i64 %sv_0.0.reload, { 1, 0 } uselistorder i64* %sv_2, { 1, 0 } uselistorder i64* %sv_1.0.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_0.0.reg2mem, { 1, 0, 2 } uselistorder i32 0, { 1, 2, 0 } uselistorder i64 1, { 1, 0 } uselistorder i8 0, { 1, 0 } uselistorder label LBL_4, { 1, 0 } }
0
CompRealVul
av_reallocp_array_2459
av_reallocp_array
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %arg3) store i64 %1, i64* %arg1, align 8 %2 = icmp eq i64* %arg1, null %3 = icmp eq i1 %2, false %4 = icmp eq i64 %arg2, 0 %or.cond = or i1 %3, %4 %5 = icmp eq i64 %arg3, 0 %or.cond3 = or i1 %or.cond, %5 %storemerge = select i1 %or.cond3, i64 0, i64 4294967284 ret i64 %storemerge }
0
CompRealVul
avfilter_open_1766
avfilter_open
define i64 @FUNC(i64* %arg1, i8* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge2.reg2mem = alloca i64 %rdi.0.reg2mem = alloca i64 %0 = icmp eq i64* %arg1, null %1 = icmp eq i1 %0, false store i64 0, i64* %storemerge.reg2mem br i1 %1, label LBL_1, label LBL_4 LBL_1: %2 = ptrtoint i64* %arg1 to i64 %3 = call i64 @FUNC(i64 80) %4 = call i64 @FUNC(i64 8) %5 = inttoptr i64 %3 to i64* store i64 %4, i64* %5, align 8 %6 = load [15 x i8]*, [15 x i8]** @gv_0, align 8 %7 = ptrtoint [15 x i8]* %6 to i64 %8 = inttoptr i64 %4 to i64* store i64 %7, i64* %8, align 8 %9 = add i64 %3, 8 %10 = inttoptr i64 %9 to i64* store i64 %2, i64* %10, align 8 %11 = icmp eq i8* %arg2, null store i64 8, i64* %rdi.0.reg2mem store i64 0, i64* %storemerge2.reg2mem br i1 %11, label LBL_3, label LBL_2 LBL_2: %12 = ptrtoint i8* %arg2 to i64 %13 = call i64 @FUNC(i64 %12) store i64 %12, i64* %rdi.0.reg2mem store i64 %13, i64* %storemerge2.reg2mem br label LBL_3 LBL_3: %storemerge2.reload = load i64, i64* %storemerge2.reg2mem %rdi.0.reload = load i64, i64* %rdi.0.reg2mem %14 = add i64 %3, 16 %15 = inttoptr i64 %14 to i64* store i64 %storemerge2.reload, i64* %15, align 8 %16 = call i64 @FUNC(i64 %rdi.0.reload) %17 = add i64 %3, 24 %18 = inttoptr i64 %17 to i64* store i64 %16, i64* %18, align 8 %19 = add i64 %2, 8 %20 = inttoptr i64 %19 to i64* %21 = load i64, i64* %20, align 8 %22 = call i64 @FUNC(i64 %21) %23 = trunc i64 %22 to i32 %24 = add i64 %3, 32 %25 = inttoptr i64 %24 to i32* store i32 %23, i32* %25, align 4 %26 = call i64 @FUNC(i64 0) %27 = add i64 %3, 40 %28 = inttoptr i64 %27 to i64* store i64 %26, i64* %28, align 8 %29 = load i32, i32* %25, align 4 %30 = sext i32 %29 to i64 %31 = mul i64 %30, 8 %32 = call i64 @FUNC(i64 %31) %33 = add i64 %3, 48 %34 = inttoptr i64 %33 to i64* store i64 %32, i64* %34, align 8 %35 = add i64 %2, 16 %36 = inttoptr i64 %35 to i64* %37 = load i64, i64* %36, align 8 %38 = call i64 @FUNC(i64 %37) %39 = trunc i64 %38 to i32 %40 = add i64 %3, 56 %41 = inttoptr i64 %40 to i32* store i32 %39, i32* %41, align 4 %42 = call i64 @FUNC(i64 0) %43 = add i64 %3, 64 %44 = inttoptr i64 %43 to i64* store i64 %42, i64* %44, align 8 %45 = load i32, i32* %41, align 4 %46 = sext i32 %45 to i64 %47 = mul i64 %46, 8 %48 = call i64 @FUNC(i64 %47) %49 = add i64 %3, 72 %50 = inttoptr i64 %49 to i64* store i64 %48, i64* %50, align 8 store i64 %3, i64* %storemerge.reg2mem br label LBL_4 LBL_4: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 (i64)* @pad_count, { 1, 0 } uselistorder i64 (i64)* @av_mallocz, { 3, 2, 1, 0 } uselistorder i64 8, { 1, 2, 4, 0, 5, 3 } uselistorder i64 (i64)* @av_malloc, { 3, 2, 1, 0 } uselistorder i8* %arg2, { 1, 0 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_4, { 1, 0 } uselistorder label LBL_3, { 1, 0 } }
0
CompRealVul
grlib_irqmp_writel_950
grlib_irqmp_writel
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi.3.reg2mem = alloca i64 %rdi.2.reg2mem = alloca i64 %rdi.017.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = icmp eq i64* %arg1, null %2 = icmp eq i1 %1, false store i64 %0, i64* %rdi.017.reg2mem br i1 %2, label LBL_2, label LBL_1 LBL_1: call void @__assert_fail(i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 43, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([14 x i8]* @gv_0 to i64), i64* %rdi.017.reg2mem br label LBL_2 LBL_2: %sext = mul i64 %arg3, 4294967296 %3 = ashr exact i64 %sext, 32 %rdi.017.reload = load i64, i64* %rdi.017.reg2mem %4 = urem i64 %arg2, 256 store i64 %4, i64* @0, align 8 %5 = mul i64 %4, 8 %6 = add i64 %5, ptrtoint (i64* @gv_3 to i64) %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = udiv i64 %4, 4 %10 = mul i64 %arg2, 4611686018427387904 %11 = or i64 %9, %10 store i64 %8, i64* %rax.0.reg2mem store i64 %8, i64* %rax.0.reg2mem switch i64 %11, label LBL_7 [ i64 0, label LBL_3 i64 1, label LBL_18 i64 2, label LBL_4 i64 3, label LBL_5 i64 4, label LBL_18 i64 5, label LBL_6 ] LBL_3: %12 = trunc i64 %3 to i32 %13 = and i32 %12, 131070 %14 = inttoptr i64 %rdi.017.reload to i32* store i32 %13, i32* %14, align 4 store i64 %rdi.017.reload, i64* %rax.0.reg2mem br label LBL_18 LBL_4: %15 = trunc i64 %3 to i32 %16 = and i32 %15, 65534 %17 = add i64 %rdi.017.reload, 8 %18 = inttoptr i64 %17 to i32* store i32 %16, i32* %18, align 4 %19 = call i64 @FUNC(i64 %rdi.017.reload) store i64 %19, i64* %rax.0.reg2mem br label LBL_18 LBL_5: %20 = trunc i64 %3 to i32 %21 = and i32 %20, -2 %22 = add i64 %rdi.017.reload, 4 %23 = inttoptr i64 %22 to i32* %24 = load i32, i32* %23, align 4 %25 = sub i32 0, %21 %26 = sub i32 %25, 1 %27 = and i32 %24, %26 store i32 %27, i32* %23, align 4 store i64 %rdi.017.reload, i64* %rax.0.reg2mem br label LBL_18 LBL_6: %28 = trunc i64 %3 to i32 %29 = and i32 %28, 65534 %30 = add i64 %rdi.017.reload, 24 %31 = inttoptr i64 %30 to i32* store i32 %29, i32* %31, align 4 store i64 %rdi.017.reload, i64* %rax.0.reg2mem br label LBL_18 LBL_7: %32 = trunc i64 %arg2 to i8 %trunc = and i8 %32, -4 switch i8 %trunc, label LBL_17 [ i8 24, label LBL_8 i8 28, label LBL_11 i8 32, label LBL_14 ] LBL_8: %33 = add nuw nsw i64 %4, 17179869160 %34 = udiv i64 %33, 4 %35 = trunc i64 %34 to i32 %36 = icmp ult i32 %35, 4 store i64 %rdi.017.reload, i64* %rdi.2.reg2mem br i1 %36, label LBL_10, label LBL_9 LBL_9: call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 73, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([32 x i8]* @gv_4 to i64), i64* %rdi.2.reg2mem br label LBL_10 LBL_10: %rdi.2.reload = load i64, i64* %rdi.2.reg2mem %37 = trunc i64 %3 to i32 %38 = and i32 %37, -2 %sext16 = mul i64 %34, 4294967296 %39 = ashr exact i64 %sext16, 30 %40 = add nsw i64 %39, 28 %41 = add i64 %40, %rdi.017.reload %42 = inttoptr i64 %41 to i32* store i32 %38, i32* %42, align 4 %43 = call i64 @FUNC(i64 %rdi.2.reload) store i64 %43, i64* %rax.0.reg2mem br label LBL_18 LBL_11: %44 = add nuw nsw i64 %4, 17179869156 %45 = udiv i64 %44, 4 %46 = trunc i64 %45 to i32 %47 = icmp ult i32 %46, 4 store i64 %rdi.017.reload, i64* %rdi.3.reg2mem br i1 %47, label LBL_13, label LBL_12 LBL_12: call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 80, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([32 x i8]* @gv_4 to i64), i64* %rdi.3.reg2mem br label LBL_13 LBL_13: %rdi.3.reload = load i64, i64* %rdi.3.reg2mem %48 = trunc i64 %3 to i32 %49 = and i32 %48, 65534 %50 = udiv i64 %3, 65536 %51 = trunc i64 %50 to i32 %52 = and i32 %51, 65534 %sext15 = mul i64 %45, 4294967296 %53 = ashr exact i64 %sext15, 30 %54 = add i64 %rdi.017.reload, 8 %55 = add i64 %54, %53 %56 = inttoptr i64 %55 to i32* %57 = load i32, i32* %56, align 4 %58 = or i32 %57, %49 %59 = sub i32 0, %52 %60 = sub i32 %59, 1 %61 = and i32 %58, %60 store i32 %61, i32* %56, align 4 %62 = call i64 @FUNC(i64 %rdi.3.reload) store i64 %62, i64* %rax.0.reg2mem br label LBL_18 LBL_14: %63 = add nuw nsw i64 %4, 17179869152 %64 = udiv i64 %63, 4 %65 = trunc i64 %64 to i32 %66 = icmp ult i32 %65, 4 br i1 %66, label LBL_16, label LBL_15 LBL_15: call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_4, i64 0, i64 0), i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_1, i64 0, i64 0), i32 89, i8* getelementptr inbounds ([19 x i8], [19 x i8]* @gv_2, i64 0, i64 0)) br label LBL_16 LBL_16: %67 = trunc i64 %3 to i32 %68 = urem i32 %67, 16 %sext14 = mul i64 %64, 4294967296 %69 = ashr exact i64 %sext14, 30 %70 = add nsw i64 %69, 44 %71 = add i64 %70, %rdi.017.reload %72 = inttoptr i64 %71 to i32* store i32 %68, i32* %72, align 4 store i64 %rdi.017.reload, i64* %rax.0.reg2mem br label LBL_18 LBL_17: %73 = and i64 %3, 4294967295 %74 = call i64 @FUNC(i64 %4, i64 %73) store i64 %74, i64* %rax.0.reg2mem br label LBL_18 LBL_18: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %4, { 3, 4, 5, 6, 1, 0, 2 } uselistorder i64 %rdi.017.reload, { 3, 11, 10, 4, 12, 5, 2, 6, 1, 7, 13, 8, 0, 9 } uselistorder i64 %3, { 5, 6, 0, 7, 8, 4, 3, 2, 1 } uselistorder i64* %rdi.017.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 7, 8, 9, 10, 6, 5, 4, 1, 2, 3 } uselistorder i64 30, { 2, 1, 0 } uselistorder [32 x i8]* @gv_4, { 1, 0 } uselistorder i32 4, { 2, 1, 0 } uselistorder i32 -2, { 1, 0 } uselistorder i64 (i64)* @grlib_irqmp_check_irqs, { 1, 0, 2 } uselistorder i32 65534, { 0, 3, 1, 2 } uselistorder i64 4, { 0, 1, 2, 5, 4, 3 } uselistorder i64 8, { 2, 1, 0 } uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 0, 3, 2, 1 } uselistorder [14 x i8]* @gv_0, { 1, 0 } uselistorder i64 %arg2, { 2, 0, 1 } uselistorder label LBL_18, { 6, 7, 8, 9, 2, 3, 4, 5, 1, 0 } uselistorder label LBL_16, { 1, 0 } uselistorder label LBL_13, { 1, 0 } uselistorder label LBL_10, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
__sk_destruct_12510
__sk_destruct
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %4 = ptrtoint i64* %arg1 to i64 %5 = add i64 %4, -56 %6 = add i64 %4, -40 %7 = call i64 @FUNC(i64 %6) %8 = trunc i64 %7 to i32 %9 = icmp eq i32 %8, 0 %10 = add i64 %4, -48 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = zext i1 %9 to i64 %14 = call i64 @FUNC(i64 %12, i64 %13) %15 = icmp eq i64 %14, 0 br i1 %15, label LBL_2, label LBL_1 LBL_1: %16 = call i64 @FUNC(i64 %5, i64 %14) store i64 0, i64* %11, align 8 br label LBL_2 LBL_2: %17 = call i64 @FUNC(i64 %5, i64 1) %18 = add i64 %4, -36 %19 = inttoptr i64 %18 to i32* %20 = load i32, i32* %19, align 4 %21 = icmp eq i32 %20, 0 br i1 %21, label LBL_4, label LBL_3 LBL_3: %22 = zext i32 %20 to i64 %23 = call i64 @FUNC(i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_1, i64 0, i64 0), i64 %22, i64 %3, i64 %2, i64 %1) br label LBL_4 LBL_4: %24 = add i64 %4, -32 %25 = inttoptr i64 %24 to i64* %26 = load i64, i64* %25, align 8 %27 = icmp eq i64 %26, 0 br i1 %27, label LBL_6, label LBL_5 LBL_5: %28 = call i64 @FUNC(i64 %26) store i64 0, i64* %25, align 8 br label LBL_6 LBL_6: %29 = add i64 %4, -24 %30 = inttoptr i64 %29 to i64* %31 = load i64, i64* %30, align 8 %32 = icmp eq i64 %31, 0 br i1 %32, label LBL_8, label LBL_7 LBL_7: %33 = call i64 @FUNC(i64 %31) br label LBL_8 LBL_8: %34 = add i64 %4, -16 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = zext i32 %36 to i64 %38 = call i64 @FUNC(i64 %37) %39 = add i64 %4, -12 %40 = inttoptr i64 %39 to i32* %41 = load i32, i32* %40, align 4 %42 = icmp eq i32 %41, 0 %43 = icmp eq i1 %42, false %44 = icmp eq i1 %43, false br i1 %44, label LBL_10, label LBL_9 LBL_9: %45 = call i64 @FUNC(i64 %5) %46 = call i64 @FUNC(i64 %45) br label LBL_10 LBL_10: %47 = add i64 %4, -8 %48 = inttoptr i64 %47 to i64* %49 = load i64, i64* %48, align 8 %50 = call i64 @FUNC(i64 %49, i64 %5) ret i64 %50 uselistorder i64 %5, { 2, 1, 3, 0 } uselistorder i64* %0, { 2, 1, 0 } }
1
CompRealVul
url_open_16400
url_open
define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge28.reg2mem = alloca i64 %.lcssa.reg2mem = alloca i8 %sv_0.1.lcssa.reg2mem = alloca i8* %sv_0.0.reg2mem = alloca i8* %sv_1.010.reg2mem = alloca i64 %sv_0.111.reg2mem = alloca i8* %.reg2mem = alloca i8* %sv_2 = alloca i64, align 8 %0 = bitcast i64* %sv_2 to i8* %1 = inttoptr i64 %arg2 to i8* %2 = load i8, i8* %1, align 1 %3 = icmp ne i8 %2, 0 %4 = icmp eq i8 %2, 58 %5 = icmp eq i1 %4, false %or.cond9 = icmp eq i1 %3, %5 store i8* %0, i8** %sv_0.1.lcssa.reg2mem store i8 %2, i8* %.lcssa.reg2mem br i1 %or.cond9, label LBL_1, label LBL_6 LBL_1: %6 = ptrtoint i64* %sv_2 to i64 store i8* %1, i8** %.reg2mem store i8* %0, i8** %sv_0.111.reg2mem store i64 %arg2, i64* %sv_1.010.reg2mem br label LBL_2 LBL_2: %.reload = load i8*, i8** %.reg2mem %7 = call i16** @__ctype_b_loc() %8 = load i16*, i16** %7, align 8 %9 = ptrtoint i16* %8 to i64 %10 = load i8, i8* %.reload, align 1 %11 = sext i8 %10 to i64 %12 = mul i64 %11, 2 %13 = add i64 %12, %9 %14 = inttoptr i64 %13 to i16* %15 = load i16, i16* %14, align 2 %16 = and i16 %15, 1024 %17 = icmp eq i16 %16, 0 br i1 %17, label LBL_8, label LBL_3 LBL_3: %sv_1.010.reload = load i64, i64* %sv_1.010.reg2mem %sv_0.111.reload = load i8*, i8** %sv_0.111.reg2mem %18 = ptrtoint i8* %sv_0.111.reload to i64 %19 = sub i64 %18, %6 %20 = icmp ult i64 %19, 127 store i8* %sv_0.111.reload, i8** %sv_0.0.reg2mem br i1 %20, label LBL_4, label LBL_5 LBL_4: %21 = add i64 %18, 1 %22 = inttoptr i64 %21 to i8* store i8 %10, i8* %sv_0.111.reload, align 1 store i8* %22, i8** %sv_0.0.reg2mem br label LBL_5 LBL_5: %sv_0.0.reload = load i8*, i8** %sv_0.0.reg2mem %23 = add i64 %sv_1.010.reload, 1 %24 = inttoptr i64 %23 to i8* %25 = load i8, i8* %24, align 1 %26 = icmp ne i8 %25, 0 %27 = icmp eq i8 %25, 58 %28 = icmp eq i1 %27, false %or.cond = icmp eq i1 %26, %28 store i8* %24, i8** %.reg2mem store i8* %sv_0.0.reload, i8** %sv_0.111.reg2mem store i64 %23, i64* %sv_1.010.reg2mem store i8* %sv_0.0.reload, i8** %sv_0.1.lcssa.reg2mem store i8 %25, i8* %.lcssa.reg2mem br i1 %or.cond, label LBL_2, label LBL_6 LBL_6: %.lcssa.reload = load i8, i8* %.lcssa.reg2mem %29 = icmp eq i8 %.lcssa.reload, 0 br i1 %29, label LBL_8, label LBL_7 LBL_7: %sv_0.1.lcssa.reload = load i8*, i8** %sv_0.1.lcssa.reg2mem %30 = ptrtoint i64* %sv_2 to i64 %31 = ptrtoint i8* %sv_0.1.lcssa.reload to i64 %32 = sub i64 %31, %30 %33 = icmp sgt i64 %32, 1 br i1 %33, label LBL_9, label LBL_8 LBL_8: store i64 1701603686, i64* %sv_2, align 8 br label LBL_10 LBL_9: store i8 0, i8* %sv_0.1.lcssa.reload, align 1 br label LBL_10 LBL_10: %34 = ptrtoint i64* %arg1 to i64 %storemerge27 = load i64, i64* @gv_0, align 8 %35 = icmp eq i64 %storemerge27, 0 %36 = icmp eq i1 %35, false store i64 %storemerge27, i64* %storemerge28.reg2mem br i1 %36, label LBL_11, label LBL_14 LBL_11: %storemerge28.reload = load i64, i64* %storemerge28.reg2mem %37 = inttoptr i64 %storemerge28.reload to i64* %38 = load i64, i64* %37, align 8 %39 = inttoptr i64 %38 to i8* %40 = call i32 @strcmp(i8* nonnull %0, i8* %39) %41 = icmp eq i32 %40, 0 %42 = icmp eq i1 %41, false br i1 %42, label LBL_13, label LBL_12 LBL_12: %43 = call i64 @FUNC(i64 %34, i64 %storemerge28.reload, i64 %arg2, i32 %arg3) store i64 %43, i64* %storemerge.reg2mem br label LBL_15 LBL_13: %44 = add i64 %storemerge28.reload, 8 %45 = inttoptr i64 %44 to i64* %storemerge2 = load i64, i64* %45, align 8 %46 = icmp eq i64 %storemerge2, 0 %47 = icmp eq i1 %46, false store i64 %storemerge2, i64* %storemerge28.reg2mem br i1 %47, label LBL_11, label LBL_14 LBL_14: store i64 0, i64* %arg1, align 8 store i64 4294967294, i64* %storemerge.reg2mem br label LBL_15 LBL_15: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %storemerge28.reload, { 0, 2, 1 } uselistorder i8* %sv_0.1.lcssa.reload, { 1, 0 } uselistorder i8* %sv_0.111.reload, { 2, 0, 1 } uselistorder i8* %0, { 2, 1, 0 } uselistorder i64* %sv_2, { 1, 2, 3, 0 } uselistorder i8** %.reg2mem, { 1, 0, 2 } uselistorder i8** %sv_0.111.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_1.010.reg2mem, { 1, 0, 2 } uselistorder i8** %sv_0.0.reg2mem, { 0, 2, 1 } uselistorder i64* %storemerge28.reg2mem, { 2, 0, 1 } uselistorder i1 false, { 4, 3, 1, 2, 0 } uselistorder i8 58, { 1, 0 } uselistorder i8 0, { 1, 2, 3, 0 } uselistorder i64 %arg2, { 2, 0, 1 } uselistorder label LBL_15, { 1, 0 } uselistorder label LBL_11, { 1, 0 } uselistorder label LBL_8, { 2, 1, 0 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
apply_mid_side_stereo_17238
apply_mid_side_stereo
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge14.reg2mem = alloca i32 %.reg2mem70 = alloca i64 %.reg2mem68 = alloca i64 %.reg2mem66 = alloca i64 %.reg2mem64 = alloca i32 %.lcssa5.reg2mem = alloca i32 %.reg2mem62 = alloca i64 %.reg2mem60 = alloca i64 %.reg2mem58 = alloca i32 %.reg2mem56 = alloca i32 %.reg2mem54 = alloca i32 %.reg2mem52 = alloca i64 %.pre2125.reg2mem = alloca i32 %.pn.reg2mem = alloca i32 %.reg2mem50 = alloca i32 %.pre2127.reg2mem = alloca i32 %.reg2mem48 = alloca i64 %storemerge47.reg2mem = alloca i32 %sv_0.08.reg2mem = alloca i32 %storemerge211.reg2mem = alloca i32 %.reg2mem46 = alloca i64 %.reg2mem44 = alloca i32 %.pre2126.reg2mem = alloca i32 %.reg2mem42 = alloca i64 %storemerge112.reg2mem = alloca i32 %.reg2mem40 = alloca i32 %.reg2mem38 = alloca i32 %.reg2mem = alloca i64 %.pre2124.reg2mem = alloca i32 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 88 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = icmp eq i32 %3, 0 store i64 0, i64* %rax.0.reg2mem br i1 %4, label LBL_16, label LBL_1 LBL_1: %5 = add i64 %0, 32 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = icmp eq i32 %7, 0 store i64 0, i64* %rax.0.reg2mem br i1 %8, label LBL_16, label LBL_2 LBL_2: %9 = add i64 %0, 8 %10 = add i64 %0, 24 %11 = inttoptr i64 %10 to i64* %12 = add i64 %0, 16 %13 = inttoptr i64 %12 to i32* %14 = add i64 %0, 80 %15 = inttoptr i64 %14 to i64* %16 = inttoptr i64 %9 to i64* %17 = add i64 %0, 40 %18 = inttoptr i64 %17 to i64* %.pre = load i64, i64* %11, align 8 store i32 %7, i32* %.reg2mem64 store i64 %.pre, i64* %.reg2mem66 store i64 %.pre, i64* %.reg2mem68 store i64 0, i64* %.reg2mem70 store i32 0, i32* %storemerge14.reg2mem br label LBL_14 LBL_3: %storemerge112.reload = load i32, i32* %storemerge112.reg2mem %.reload41 = load i32, i32* %.reg2mem40 %.reload39 = load i32, i32* %.reg2mem38 %.reload = load i64, i64* %.reg2mem %.pre2124.reload = load i32, i32* %.pre2124.reg2mem %19 = icmp eq i32 %.reload41, 0 store i32 %.pre2124.reload, i32* %.pre2125.reg2mem store i64 %.reload, i64* %.reg2mem52 store i32 %.reload39, i32* %.reg2mem54 store i32 0, i32* %.reg2mem56 br i1 %19, label LBL_11, label LBL_4 LBL_4: %20 = add i32 %storemerge112.reload, %storemerge14.reload %21 = mul i32 %20, 128 %.pre37 = load i64, i64* %16, align 8 store i64 %.pre37, i64* %.reg2mem42 store i32 %.pre2124.reload, i32* %.pre2126.reg2mem store i32 %.reload39, i32* %.reg2mem44 store i64 0, i64* %.reg2mem46 store i32 0, i32* %storemerge211.reg2mem store i32 %21, i32* %sv_0.08.reg2mem br label LBL_5 LBL_5: %sv_0.08.reload = load i32, i32* %sv_0.08.reg2mem %storemerge211.reload = load i32, i32* %storemerge211.reg2mem %.reload47 = load i64, i64* %.reg2mem46 %.reload45 = load i32, i32* %.reg2mem44 %.pre2126.reload = load i32, i32* %.pre2126.reg2mem %.reload43 = load i64, i64* %.reg2mem42 %22 = load i64, i64* %15, align 8 %23 = add i32 %storemerge211.reload, %100 %24 = sext i32 %23 to i64 %25 = mul i64 %24, 4 %26 = add i64 %25, %22 %27 = inttoptr i64 %26 to i32* %28 = load i32, i32* %27, align 4 %29 = icmp eq i32 %28, 0 %30 = icmp eq i1 %29, false %31 = mul i64 %.reload47, 4 %32 = add i64 %.reload43, %31 %33 = inttoptr i64 %32 to i32* %34 = load i32, i32* %33, align 4 store i64 %.reload43, i64* %.reg2mem48 store i32 %.pre2126.reload, i32* %.pre2127.reg2mem store i32 %.reload45, i32* %.reg2mem50 store i32 %34, i32* %.pn.reg2mem br i1 %30, label LBL_6, label LBL_9 LBL_6: %35 = icmp eq i32 %34, 0 store i32 0, i32* %storemerge47.reg2mem store i64 %.reload43, i64* %.reg2mem48 store i32 %.pre2126.reload, i32* %.pre2127.reg2mem store i32 %.pre2126.reload, i32* %.reg2mem50 store i32 0, i32* %.pn.reg2mem br i1 %35, label LBL_9, label LBL_7 LBL_7: %storemerge47.reload = load i32, i32* %storemerge47.reg2mem %36 = add i32 %storemerge47.reload, %sv_0.08.reload %37 = sext i32 %36 to i64 %38 = mul i64 %37, 4 %39 = add i64 %38, %0 %40 = inttoptr i64 %39 to i32* %41 = load i32, i32* %40, align 4 %42 = call i128 @FUNC(i32 %41) %43 = load i64, i64* %18, align 8 %44 = add i64 %43, %38 %45 = inttoptr i64 %44 to i32* %46 = load i32, i32* %45, align 4 %47 = call i128 @FUNC(i32 %46) %48 = call i128 @FUNC(i128 %42, i128 %47) %49 = load i32, i32* inttoptr (i64 4202512 to i32*), align 16 %50 = call i128 @FUNC(i32 %49) %51 = call i128 @FUNC(i128 %50, i128 %48) %52 = call i64 @__asm_movss.1(i128 %51) %53 = trunc i64 %52 to i32 %54 = load i64, i64* %18, align 8 %55 = add i64 %54, %38 %56 = inttoptr i64 %55 to i32* %57 = load i32, i32* %56, align 4 %58 = call i128 @FUNC(i32 %57) %59 = call i128 @FUNC(i32 %53) %60 = call i128 @FUNC(i128 %59, i128 %58) %61 = call i64 @__asm_movss.1(i128 %60) %62 = trunc i64 %61 to i32 %63 = call i128 @FUNC(i32 %53) %64 = call i64 @__asm_movss.1(i128 %63) %65 = trunc i64 %64 to i32 store i32 %65, i32* %40, align 4 %66 = load i64, i64* %18, align 8 %67 = add i64 %66, %38 %68 = call i128 @FUNC(i32 %62) %69 = call i64 @__asm_movss.1(i128 %68) %70 = trunc i64 %69 to i32 %71 = inttoptr i64 %67 to i32* store i32 %70, i32* %71, align 4 %72 = add i32 %storemerge47.reload, 1 %73 = load i64, i64* %16, align 8 %74 = add i64 %73, %31 %75 = inttoptr i64 %74 to i32* %76 = load i32, i32* %75, align 4 %77 = zext i32 %76 to i64 %78 = sext i32 %72 to i64 %79 = icmp slt i64 %78, %77 store i32 %72, i32* %storemerge47.reg2mem br i1 %79, label LBL_7, label LBL_8 LBL_8: %.pre21.pre = load i32, i32* %13, align 4 store i64 %73, i64* %.reg2mem48 store i32 %.pre21.pre, i32* %.pre2127.reg2mem store i32 %.pre21.pre, i32* %.reg2mem50 store i32 %76, i32* %.pn.reg2mem br label LBL_9 LBL_9: %.pn.reload = load i32, i32* %.pn.reg2mem %.reload51 = load i32, i32* %.reg2mem50 %.pre2127.reload = load i32, i32* %.pre2127.reg2mem %.reload49 = load i64, i64* %.reg2mem48 %storemerge3 = add i32 %.pn.reload, %sv_0.08.reload %80 = add i32 %storemerge211.reload, 1 %81 = zext i32 %.reload51 to i64 %82 = sext i32 %80 to i64 %83 = icmp slt i64 %82, %81 store i64 %.reload49, i64* %.reg2mem42 store i32 %.pre2127.reload, i32* %.pre2126.reg2mem store i32 %.reload51, i32* %.reg2mem44 store i64 %82, i64* %.reg2mem46 store i32 %80, i32* %storemerge211.reg2mem store i32 %storemerge3, i32* %sv_0.08.reg2mem br i1 %83, label LBL_5, label LBL_10 LBL_10: %.pre22 = load i64, i64* %11, align 8 store i32 %.pre2127.reload, i32* %.pre2125.reg2mem store i64 %.pre22, i64* %.reg2mem52 store i32 %.reload51, i32* %.reg2mem54 store i32 %.reload51, i32* %.reg2mem56 br label LBL_11 LBL_11: %.reload57 = load i32, i32* %.reg2mem56 %.reload55 = load i32, i32* %.reg2mem54 %.reload53 = load i64, i64* %.reg2mem52 %.pre2125.reload = load i32, i32* %.pre2125.reg2mem %84 = add i32 %storemerge112.reload, 1 %85 = add i64 %.reload53, %95 %86 = inttoptr i64 %85 to i32* %87 = load i32, i32* %86, align 4 %88 = zext i32 %87 to i64 %89 = sext i32 %84 to i64 %90 = icmp slt i64 %89, %88 store i32 %.pre2125.reload, i32* %.pre2124.reg2mem store i64 %.reload53, i64* %.reg2mem store i32 %.reload55, i32* %.reg2mem38 store i32 %.reload57, i32* %.reg2mem40 store i32 %84, i32* %storemerge112.reg2mem br i1 %90, label LBL_3, label LBL_12 LBL_12: %.pre23 = load i32, i32* %6, align 4 store i32 %.pre23, i32* %.reg2mem58 store i64 %.reload53, i64* %.reg2mem60 store i64 %.reload53, i64* %.reg2mem62 store i32 %87, i32* %.lcssa5.reg2mem br label LBL_13 LBL_13: %.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem %.reload63 = load i64, i64* %.reg2mem62 %.reload61 = load i64, i64* %.reg2mem60 %.reload59 = load i32, i32* %.reg2mem58 %91 = add i32 %.lcssa5.reload, %storemerge14.reload %92 = zext i32 %.reload59 to i64 %93 = sext i32 %91 to i64 %94 = icmp slt i64 %93, %92 store i32 %.reload59, i32* %.reg2mem64 store i64 %.reload61, i64* %.reg2mem66 store i64 %.reload63, i64* %.reg2mem68 store i64 %93, i64* %.reg2mem70 store i32 %91, i32* %storemerge14.reg2mem store i64 %92, i64* %rax.0.reg2mem br i1 %94, label LBL_14, label LBL_16 LBL_14: %storemerge14.reload = load i32, i32* %storemerge14.reg2mem %.reload71 = load i64, i64* %.reg2mem70 %.reload69 = load i64, i64* %.reg2mem68 %.reload67 = load i64, i64* %.reg2mem66 %.reload65 = load i32, i32* %.reg2mem64 %95 = mul i64 %.reload71, 4 %96 = add i64 %95, %.reload69 %97 = inttoptr i64 %96 to i32* %98 = load i32, i32* %97, align 4 %99 = icmp eq i32 %98, 0 store i32 %.reload65, i32* %.reg2mem58 store i64 %.reload67, i64* %.reg2mem60 store i64 %.reload69, i64* %.reg2mem62 store i32 0, i32* %.lcssa5.reg2mem br i1 %99, label LBL_13, label LBL_3.lr.ph LBL_15: %100 = mul i32 %storemerge14.reload, 16 %.pre20 = load i32, i32* %13, align 4 store i32 %.pre20, i32* %.pre2124.reg2mem store i64 %.reload67, i64* %.reg2mem store i32 %.pre20, i32* %.reg2mem38 store i32 %.pre20, i32* %.reg2mem40 store i32 0, i32* %storemerge112.reg2mem br label LBL_3 LBL_16: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %.reload69, { 1, 0 } uselistorder i32 %storemerge14.reload, { 2, 0, 1 } uselistorder i64 %.reload53, { 0, 1, 3, 2 } uselistorder i32 %.reload51, { 0, 1, 3, 2 } uselistorder i32 %53, { 1, 0 } uselistorder i64 %38, { 3, 2, 0, 1 } uselistorder i32 %34, { 1, 0 } uselistorder i64 %31, { 1, 0 } uselistorder i64 %.reload43, { 1, 0, 2 } uselistorder i32 %.pre2126.reload, { 0, 2, 1 } uselistorder i32 %sv_0.08.reload, { 1, 0 } uselistorder i32 %.pre2124.reload, { 1, 0 } uselistorder i32 %.reload39, { 1, 0 } uselistorder i64* %16, { 1, 0 } uselistorder i32* %13, { 1, 0 } uselistorder i64 %0, { 0, 4, 5, 1, 2, 7, 3, 6 } uselistorder i32* %.pre2124.reg2mem, { 2, 1, 0 } uselistorder i64* %.reg2mem, { 2, 1, 0 } uselistorder i32* %.reg2mem38, { 2, 1, 0 } uselistorder i32* %.reg2mem40, { 2, 1, 0 } uselistorder i32* %storemerge112.reg2mem, { 2, 1, 0 } uselistorder i64* %.reg2mem42, { 1, 0, 2 } uselistorder i32* %.pre2126.reg2mem, { 1, 0, 2 } uselistorder i32* %.reg2mem44, { 1, 0, 2 } uselistorder i64* %.reg2mem46, { 1, 0, 2 } uselistorder i32* %storemerge211.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_0.08.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge47.reg2mem, { 2, 0, 1 } uselistorder i64* %.reg2mem48, { 0, 3, 2, 1 } uselistorder i32* %.pre2127.reg2mem, { 0, 3, 2, 1 } uselistorder i32* %.reg2mem50, { 0, 3, 2, 1 } uselistorder i32* %.pn.reg2mem, { 0, 3, 2, 1 } uselistorder i32* %.reg2mem58, { 1, 0, 2 } uselistorder i64* %.reg2mem60, { 1, 0, 2 } uselistorder i64* %.reg2mem62, { 1, 0, 2 } uselistorder i32* %.lcssa5.reg2mem, { 1, 0, 2 } uselistorder i32 0, { 6, 1, 9, 3, 4, 7, 11, 5, 2, 8, 0, 10, 12 } uselistorder label LBL_14, { 1, 0 } uselistorder label LBL_11, { 1, 0 } uselistorder label LBL_9, { 1, 2, 0 } uselistorder label LBL_7, { 1, 0 } uselistorder label LBL_5, { 1, 0 } }
1
CompRealVul
SRXAFSCB_InitCallBackState_3951
SRXAFSCB_InitCallBackState
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_0, i64 0, i64 0), i64 %0) %2 = call i64 @FUNC(i64 ptrtoint ([5 x i8]* @gv_0 to i64)) %3 = call i64 @FUNC(i64 %0) %4 = call i64 @FUNC(i64 %0) %5 = call i64 @FUNC(i64 4202517) ret i64 %5 uselistorder i64 %0, { 1, 0, 2 } uselistorder [5 x i8]* @gv_0, { 1, 0 } }
0
CompRealVul
yr_re_ast_create_11517
yr_re_ast_create
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = call i64 @FUNC(i64 16) store i64 %0, i64* %arg1, align 8 store i32 0, i32* inttoptr (i64 16 to i32*), align 16 store i64 0, i64* inttoptr (i64 24 to i64*), align 8 ret i64 0 }
1
CompRealVul
tgen_andi_798
tgen_andi
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %indvars.iv.reg2mem = alloca i64 %indvars.iv27.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg2 to i32 %sext3 = mul i64 %arg3, 4294967296 %2 = ashr exact i64 %sext3, 32 %3 = icmp eq i32 %1, 0 %4 = icmp eq i1 %3, false %. = select i1 %4, i64 -1, i64 4294967295 %5 = and i64 %., %arg4 %6 = icmp eq i64 %5, 4294967295 %7 = icmp eq i1 %6, false br i1 %7, label LBL_2, label LBL_1 LBL_1: %8 = trunc i64 %2 to i32 %9 = and i64 %2, 4294967295 %10 = call i64 @FUNC(i64 %0, i64 %9, i32 %8) store i64 %10, i64* %rax.0.reg2mem br label LBL_24 LBL_2: %11 = load i32, i32* bitcast (i64* @gv_0 to i32*), align 8 %12 = urem i32 %11, 2 %13 = icmp eq i32 %12, 0 br i1 %13, label LBL_7, label LBL_3 LBL_3: %14 = icmp eq i64 %5, 255 %15 = icmp eq i1 %14, false br i1 %15, label LBL_5, label LBL_4 LBL_4: %16 = trunc i64 %2 to i32 %17 = call i64 @FUNC(i64 %0, i64 1, i32 %16, i32 %16) store i64 %17, i64* %rax.0.reg2mem br label LBL_24 LBL_5: %18 = icmp eq i64 %5, 65535 %19 = icmp eq i1 %18, false br i1 %19, label LBL_7, label LBL_6 LBL_6: %20 = trunc i64 %2 to i32 %21 = call i64 @FUNC(i64 %0, i64 1, i32 %20, i32 %20) store i64 %21, i64* %rax.0.reg2mem br label LBL_24 LBL_7: %22 = sub i64 0, %. %23 = sub i64 %22, 1 %24 = or i64 %23, %arg4 store i64 0, i64* %indvars.iv27.reg2mem br label LBL_8 LBL_8: %indvars.iv27.reload = load i64, i64* %indvars.iv27.reg2mem %25 = mul i64 %indvars.iv27.reload, 16 %26 = shl i64 -65535, %25 %27 = add i64 %26, -1 %28 = and i64 %24, %27 %29 = icmp eq i64 %28, %27 %30 = icmp eq i1 %29, false br i1 %30, label LBL_10, label LBL_9 LBL_9: %31 = lshr i64 %arg4, %25 %sext = mul i64 %indvars.iv27.reload, 4294967296 %32 = ashr exact i64 %sext, 30 %33 = add i64 %32, ptrtoint (i32** @gv_1 to i64) %34 = inttoptr i64 %33 to i32* %35 = load i32, i32* %34, align 4 %36 = trunc i64 %2 to i32 %37 = call i64 @FUNC(i64 %0, i32 %35, i32 %36, i64 %31) store i64 %37, i64* %rax.0.reg2mem br label LBL_24 LBL_10: %indvars.iv.next28 = add nuw nsw i64 %indvars.iv27.reload, 1 %38 = icmp ult i64 %indvars.iv.next28, 4 store i64 %indvars.iv.next28, i64* %indvars.iv27.reg2mem br i1 %38, label LBL_8, label LBL_11 LBL_11: store i64 0, i64* %indvars.iv.reg2mem br i1 %13, label LBL_15, label LBL_12 LBL_12: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %39 = mul i64 %indvars.iv.reload, 32 %40 = shl i64 -4294967295, %39 %41 = add nsw i64 %40, -1 %42 = and i64 %24, %41 %43 = icmp eq i64 %42, %41 %44 = icmp eq i1 %43, false br i1 %44, label LBL_14, label LBL_13 LBL_13: %45 = lshr i64 %arg4, %39 %sext29 = mul i64 %indvars.iv.reload, 4 %46 = or i64 %sext29, ptrtoint (i32** @gv_2 to i64) %47 = inttoptr i64 %46 to i32* %48 = load i32, i32* %47, align 4 %49 = trunc i64 %2 to i32 %50 = call i64 @FUNC(i64 %0, i32 %48, i32 %49, i64 %45) store i64 %50, i64* %rax.0.reg2mem br label LBL_24 LBL_14: %51 = icmp eq i64 %indvars.iv.reload, 1 store i64 1, i64* %indvars.iv.reg2mem br i1 %51, label LBL_15, label LBL_12 LBL_15: %52 = and i32 %11, 2 %53 = icmp eq i32 %52, 0 br i1 %53, label LBL_21, label LBL_16 LBL_16: %54 = call i64 @FUNC(i64 %arg4) %55 = trunc i64 %54 to i32 %56 = icmp eq i32 %55, 0 br i1 %56, label LBL_21, label LBL_17 LBL_17: %57 = icmp ult i64 %arg4, -9223372036854775806 %58 = add i64 %arg4, 9223372036854775806 %59 = select i1 %57, i64 %arg4, i64 %58 %60 = icmp eq i64 %59, -9223372036854775807 %61 = icmp eq i1 %60, false br i1 %61, label LBL_19, label LBL_18 LBL_18: %62 = sub i64 0, %arg4 %63 = sub i64 %62, 1 %64 = call i64 @FUNC(i64 %63) %65 = trunc i64 %64 to i32 %66 = sub i32 64, %65 %67 = call i64 @FUNC(i64 %63) %68 = add i64 %67, 4294967295 store i32 %66, i32* %sv_0.0.reg2mem store i64 %68, i64* %storemerge.reg2mem br label LBL_20 LBL_19: %69 = call i64 @FUNC(i64 %arg4) %70 = trunc i64 %69 to i32 %71 = call i64 @FUNC(i64 %arg4) %72 = sub i64 63, %71 store i32 %70, i32* %sv_0.0.reg2mem store i64 %72, i64* %storemerge.reg2mem br label LBL_20 LBL_20: %storemerge.reload = load i64, i64* %storemerge.reg2mem %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %73 = trunc i64 %2 to i32 %74 = and i64 %storemerge.reload, 4294967295 %75 = call i64 @FUNC(i64 %0, i32 %73, i32 %73, i32 %sv_0.0.reload, i64 %74, i64 0) store i64 %75, i64* %rax.0.reg2mem br label LBL_24 LBL_21: %76 = call i64 @FUNC(i64 %0, i32 %1, i64 10, i64 %arg4) %77 = and i64 %2, 4294967295 br i1 %4, label LBL_23, label LBL_22 LBL_22: %78 = call i64 @FUNC(i64 %0, i64 6, i64 7, i64 %77, i64 10) store i64 %78, i64* %rax.0.reg2mem br label LBL_24 LBL_23: %79 = call i64 @FUNC(i64 %0, i64 8, i64 9, i64 %77, i64 10) store i64 %79, i64* %rax.0.reg2mem br label LBL_24 LBL_24: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %77, { 1, 0 } uselistorder i32 %73, { 1, 0 } uselistorder i64 %63, { 1, 0 } uselistorder i64 %41, { 1, 0 } uselistorder i64 %indvars.iv.reload, { 0, 2, 1 } uselistorder i64 %27, { 1, 0 } uselistorder i64 %indvars.iv27.reload, { 0, 2, 1 } uselistorder i32 %20, { 1, 0 } uselistorder i32 %16, { 1, 0 } uselistorder i32 %11, { 1, 0 } uselistorder i64 %2, { 6, 5, 4, 7, 3, 2, 1, 0 } uselistorder i64 %0, { 5, 6, 7, 4, 3, 8, 2, 1, 0 } uselistorder i64* %indvars.iv27.reg2mem, { 1, 0, 2 } uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_0.0.reg2mem, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 7, 6, 5, 4, 8, 3, 2, 1 } uselistorder i64 (i64, i64, i64, i64, i64)* @tcg_out_insn, { 1, 0 } uselistorder i64 63, { 0, 2, 1 } uselistorder i64 (i64)* @clz64, { 1, 0 } uselistorder i64 (i64)* @ctz64, { 1, 0 } uselistorder i64 1, { 1, 0, 3, 4, 2, 5, 6 } uselistorder i32 2, { 1, 0 } uselistorder i1 false, { 1, 0, 2, 3, 4, 5, 6 } uselistorder i64 %arg4, { 10, 7, 8, 0, 2, 1, 3, 9, 6, 11, 4, 5 } uselistorder label LBL_12, { 1, 0 } uselistorder label LBL_8, { 1, 0 } }
0
CompRealVul
pool_strdup_12229
pool_strdup
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = inttoptr i64 %arg1 to i8* %1 = call i32 @strlen(i8* %0) %2 = sext i32 %1 to i64 %3 = add nsw i64 %2, 1 %4 = call i64 @FUNC(i64 %3) %5 = inttoptr i64 %4 to i8* %6 = call i8* @strcpy(i8* %5, i8* %0) ret i64 %4 }
1
CompRealVul
aspeed_soc_class_init_16467
aspeed_soc_class_init
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 store i64 4198662, i64* %arg1, align 8 ret i64 %0 }
1
CompRealVul
vp9_bigdia_search_18727
vp9_bigdia_search
define i64 @FUNC(i32* %arg1, i64* %arg2, i32 %arg3, i32 %arg4, i32 %arg5, i64* %arg6, i64 %arg7, i64 %arg8, i64* %arg9, i64* %arg10) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg6 to i64 %1 = ptrtoint i64* %arg2 to i64 %2 = ptrtoint i32* %arg1 to i64 %3 = call i64 @FUNC(i64 %2, i64 %1, i32 %arg3, i32 %arg4, i32 %arg5, i64 %0) ret i64 %3 }
1
CompRealVul
VRY_Match_4555
VRY_Match
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi.6.ph.reg2mem = alloca i64 %rdi.5.reg2mem = alloca i64 %rdi.4.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %rdi.3.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i32 %sv_2.0.reg2mem = alloca i32 %rdi.2.reg2mem = alloca i64 %rdi.1.reg2mem = alloca i64 %storemerge.lcssa.reg2mem = alloca i64 %.pre-phi.reg2mem = alloca i64 %storemerge7.reg2mem = alloca i64 %rdi.5.ph.reg2mem = alloca i64 %sv_3.0.ph.reg2mem = alloca i8* %sv_4.0.ph.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_5 = alloca i8*, align 8 %2 = bitcast i64* %arg1 to i8* %3 = call i64 @FUNC(i64 %1) %4 = add i64 %1, 8 %5 = inttoptr i64 %4 to i64* %6 = add i64 %1, 24 %7 = inttoptr i64 %6 to i64* %8 = bitcast i8** %sv_5 to i64* %9 = add i64 %1, 16 %10 = inttoptr i64 %9 to i64* store i64 %0, i64* %sv_4.0.ph.reg2mem store i8* %2, i8** %sv_3.0.ph.reg2mem store i64 %1, i64* %rdi.5.ph.reg2mem br label LBL_1 LBL_1: %rdi.5.ph.reload = load i64, i64* %rdi.5.ph.reg2mem %sv_3.0.ph.reload = load i8*, i8** %sv_3.0.ph.reg2mem %sv_4.0.ph.reload = load i64, i64* %sv_4.0.ph.reg2mem %11 = add i64 %sv_4.0.ph.reload, 2 %12 = inttoptr i64 %11 to i8* %13 = ptrtoint i8* %sv_3.0.ph.reload to i64 %14 = add i64 %13, 2 %15 = inttoptr i64 %14 to i64* %16 = inttoptr i64 %11 to i64* %17 = inttoptr i64 %14 to i8* %18 = add i64 %13, 4 store i64 %rdi.5.ph.reload, i64* %rdi.5.reg2mem br label LBL_20 LBL_2: %rdi.5.reload = load i64, i64* %rdi.5.reg2mem %19 = load i64, i64* %5, align 8 %20 = icmp ult i64 %14, %19 store i64 %rdi.5.reload, i64* %rdi.6.ph.reg2mem br i1 %20, label LBL_3, label LBL_21 LBL_3: %21 = call i64 @FUNC(i64 %sv_4.0.ph.reload, i64 %13) %22 = trunc i64 %21 to i32 %23 = icmp eq i32 %22, 1 %24 = icmp eq i1 %23, false store i32 %22, i32* %sv_0.0.reg2mem store i64 %sv_4.0.ph.reload, i64* %rdi.4.reg2mem br i1 %24, label LBL_17, label LBL_4 LBL_4: %25 = load i8, i8* %12, align 1 %26 = zext i8 %25 to i32 %27 = add nuw nsw i32 %26, 4 %28 = load i64, i64* %7, align 8 %29 = call i64 @FUNC(i64 %28, i64 %11, i64* nonnull %8) %30 = trunc i64 %29 to i32 %31 = icmp eq i32 %30, 0 br i1 %31, label LBL_11, label LBL_5 LBL_5: %32 = load i8*, i8** %sv_5, align 8 %33 = ptrtoint i8* %32 to i64 %34 = call i32 @strlen(i8* %32) %35 = sext i32 %34 to i64 %36 = add i64 %35, %33 %37 = load i8*, i8** %sv_5, align 8 %38 = ptrtoint i8* %37 to i64 %39 = icmp ugt i64 %36, %38 store i64 %36, i64* %storemerge7.reg2mem store i64 %38, i64* %.pre-phi.reg2mem store i64 %36, i64* %storemerge.lcssa.reg2mem store i64 %33, i64* %rdi.1.reg2mem br i1 %39, label LBL_7, label LBL_8 LBL_6: %40 = icmp ugt i64 %41, %51 store i64 %41, i64* %storemerge7.reg2mem store i64 %51, i64* %.pre-phi.reg2mem store i64 %41, i64* %storemerge.lcssa.reg2mem store i64 %45, i64* %rdi.1.reg2mem br i1 %40, label LBL_7, label LBL_8 LBL_7: %storemerge7.reload = load i64, i64* %storemerge7.reg2mem %41 = add i64 %storemerge7.reload, -1 %42 = inttoptr i64 %41 to i8* %43 = load i8, i8* %42, align 1 %44 = sext i8 %43 to i64 %45 = and i64 %44, 4294967295 %46 = call i64 @FUNC(i64 %45) %47 = trunc i64 %46 to i32 %48 = icmp eq i32 %47, 0 %49 = icmp eq i1 %48, false %50 = load i8*, i8** %sv_5, align 8 %51 = ptrtoint i8* %50 to i64 store i64 %51, i64* %.pre-phi.reg2mem store i64 %storemerge7.reload, i64* %storemerge.lcssa.reg2mem store i64 %45, i64* %rdi.1.reg2mem br i1 %49, label LBL_6, label LBL_8 LBL_8: %rdi.1.reload = load i64, i64* %rdi.1.reg2mem %storemerge.lcssa.reload = load i64, i64* %storemerge.lcssa.reg2mem %.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem %52 = sub i64 %storemerge.lcssa.reload, %.pre-phi.reload %53 = trunc i64 %52 to i32 %54 = icmp ult i32 %53, 65535 store i64 %rdi.1.reload, i64* %rdi.2.reg2mem br i1 %54, label LBL_10, label LBL_9 LBL_9: call void @__assert_fail(i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 66, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([12 x i8]* @gv_0 to i64), i64* %rdi.2.reg2mem br label LBL_10 LBL_10: %rdi.2.reload = load i64, i64* %rdi.2.reg2mem %55 = add i32 %27, %53 store i32 %55, i32* %sv_2.0.reg2mem store i32 %53, i32* %sv_1.0.reg2mem store i64 %rdi.2.reload, i64* %rdi.3.reg2mem br label LBL_12 LBL_11: store i8* null, i8** %sv_5, align 8 store i32 %27, i32* %sv_2.0.reg2mem store i32 65535, i32* %sv_1.0.reg2mem store i64 %28, i64* %rdi.3.reg2mem br label LBL_12 LBL_12: %rdi.3.reload = load i64, i64* %rdi.3.reg2mem %sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem %56 = zext i32 %sv_2.0.reload to i64 %57 = add i64 %56, %13 %58 = add i64 %57, 2 %59 = load i64, i64* %5, align 8 %60 = icmp ult i64 %58, %59 store i64 %rdi.3.reload, i64* %rdi.6.ph.reg2mem br i1 %60, label LBL_13, label LBL_21 LBL_13: %sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem %61 = urem i32 %sv_1.0.reload, 65536 %62 = zext i32 %61 to i64 %63 = call i64 @FUNC(i64 %13, i64 %62) %64 = load i8, i8* %12, align 1 %65 = zext i8 %64 to i32 %66 = add nuw nsw i32 %65, 2 %67 = call i64* @memcpy(i64* %15, i64* %16, i32 %66) %68 = load i8*, i8** %sv_5, align 8 %69 = icmp eq i8* %68, null br i1 %69, label LBL_15, label LBL_14 LBL_14: %70 = load i8, i8* %17, align 1 %71 = zext i8 %70 to i64 %72 = add i64 %18, %71 %73 = inttoptr i64 %72 to i64* %74 = bitcast i8* %68 to i64* %75 = call i64* @memcpy(i64* %73, i64* %74, i32 %sv_1.0.reload) br label LBL_15 LBL_15: %76 = inttoptr i64 %57 to i8* store i8 -1, i8* %76, align 1 %77 = add i32 %sv_2.0.reload, 1 %78 = zext i32 %77 to i64 %79 = add i64 %78, %13 %80 = inttoptr i64 %79 to i8* store i8 -1, i8* %80, align 1 %81 = add i32 %sv_2.0.reload, 2 %82 = zext i32 %81 to i64 %83 = add i64 %82, %13 %84 = inttoptr i64 %83 to i8* store i8 0, i8* %84, align 1 %85 = call i64 @FUNC(i64 %13) %86 = add i64 %57, 3 store i64 %86, i64* %10, align 8 %87 = call i64 @FUNC(i64 %sv_4.0.ph.reload, i64 %13) %88 = trunc i64 %87 to i32 %89 = or i32 %88, 2 %90 = icmp eq i32 %89, 2 store i32 %88, i32* %sv_0.0.reg2mem store i64 %sv_4.0.ph.reload, i64* %rdi.4.reg2mem br i1 %90, label LBL_17, label LBL_16 LBL_16: call void @__assert_fail(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 84, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0)) store i32 %88, i32* %sv_0.0.reg2mem store i64 ptrtoint ([17 x i8]* @gv_3 to i64), i64* %rdi.4.reg2mem br label LBL_17 LBL_17: %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %91 = icmp eq i32 %sv_0.0.reload, 0 %92 = icmp eq i1 %91, false br i1 %92, label LBL_19, label LBL_18 LBL_18: %93 = call i64 @FUNC(i64 %13) %sext = mul i64 %93, 4294967296 %94 = ashr exact i64 %sext, 32 %95 = add i64 %94, %13 %96 = inttoptr i64 %95 to i8* %97 = call i64 @FUNC(i64 %sv_4.0.ph.reload) %sext3 = mul i64 %97, 4294967296 %98 = ashr exact i64 %sext3, 32 %99 = add i64 %98, %sv_4.0.ph.reload store i64 %99, i64* %sv_4.0.ph.reg2mem store i8* %96, i8** %sv_3.0.ph.reg2mem store i64 %sv_4.0.ph.reload, i64* %rdi.5.ph.reg2mem br label LBL_1 LBL_19: %rdi.4.reload = load i64, i64* %rdi.4.reg2mem %100 = icmp eq i32 %sv_0.0.reload, 2 %101 = icmp eq i1 %100, false store i64 %rdi.4.reload, i64* %rdi.5.reg2mem store i64 0, i64* %rax.0.reg2mem br i1 %101, label LBL_20, label LBL_23 LBL_20: %102 = load i8, i8* %12, align 1 %103 = icmp eq i8 %102, 0 %104 = icmp eq i1 %103, false store i64 1, i64* %rax.0.reg2mem br i1 %104, label LBL_2, label LBL_23 LBL_21: %rdi.6.ph.reload = load i64, i64* %rdi.6.ph.reg2mem store i64 0, i64* %10, align 8 %105 = add i64 %rdi.6.ph.reload, 2 %106 = load i64, i64* %5, align 8 %107 = icmp ult i64 %105, %106 %108 = icmp eq i1 %107, false store i64 0, i64* %rax.0.reg2mem br i1 %108, label LBL_23, label LBL_22 LBL_22: %109 = inttoptr i64 %rdi.6.ph.reload to i8* store i8 -1, i8* %109, align 1 %110 = add i64 %rdi.6.ph.reload, 1 %111 = inttoptr i64 %110 to i8* store i8 -1, i8* %111, align 1 %112 = inttoptr i64 %105 to i8* store i8 0, i8* %112, align 1 store i64 0, i64* %rax.0.reg2mem br label LBL_23 LBL_23: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %rdi.6.ph.reload, { 0, 2, 1 } uselistorder i32 %sv_2.0.reload, { 2, 1, 0 } uselistorder i64 %51, { 0, 2, 1 } uselistorder i64 %45, { 0, 2, 1 } uselistorder i64 %41, { 3, 2, 1, 0 } uselistorder i64 %14, { 2, 0, 1 } uselistorder i64 %13, { 0, 4, 6, 7, 1, 2, 8, 3, 9, 5, 10 } uselistorder i8* %12, { 2, 0, 1 } uselistorder i64 %11, { 1, 0, 2 } uselistorder i64 %sv_4.0.ph.reload, { 2, 7, 4, 0, 3, 1, 6, 5 } uselistorder i8** %sv_5, { 4, 3, 2, 0, 1, 5 } uselistorder i64* %sv_4.0.ph.reg2mem, { 2, 0, 1 } uselistorder i8** %sv_3.0.ph.reg2mem, { 2, 0, 1 } uselistorder i64* %rdi.5.ph.reg2mem, { 2, 0, 1 } uselistorder i64* %storemerge7.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_2.0.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_1.0.reg2mem, { 0, 2, 1 } uselistorder i64* %rdi.3.reg2mem, { 0, 2, 1 } uselistorder i64* %rdi.5.reg2mem, { 2, 0, 1 } uselistorder i64* %rdi.6.ph.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 } uselistorder i64 1, { 2, 0, 1, 3 } uselistorder i64 (i64)* @vry_len, { 1, 0 } uselistorder [17 x i8]* @gv_3, { 1, 0 } uselistorder i8 0, { 1, 2, 0 } uselistorder i8 -1, { 2, 3, 0, 1 } uselistorder i64* (i64*, i64*, i32)* @memcpy, { 1, 0 } uselistorder i32 2, { 2, 0, 1, 3, 4 } uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 1, 0 } uselistorder [12 x i8]* @gv_0, { 1, 0 } uselistorder i1 false, { 4, 5, 0, 1, 2, 3 } uselistorder i64 (i64, i64)* @vry_cmp, { 1, 0 } uselistorder i64 2, { 2, 0, 1, 3 } uselistorder label LBL_23, { 3, 2, 0, 1 } uselistorder label LBL_21, { 1, 0 } uselistorder label LBL_20, { 1, 0 } uselistorder label LBL_7, { 1, 0 } }
0
CompRealVul
vfio_calxeda_xgmac_class_init_14490
vfio_calxeda_xgmac_class_init
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 store i64 4198662, i64* %arg1, align 8 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* store i64 ptrtoint ([19 x i8]* @gv_0 to i64), i64* %2, align 8 %3 = add i64 %0, 16 %4 = inttoptr i64 %3 to i64* store i64 ptrtoint (i64* @gv_1 to i64), i64* %4, align 8 ret i64 %0 uselistorder i64 %0, { 1, 0, 2 } }
1
CompRealVul
slurm_free_node_info_members_18463
slurm_free_node_info_members
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = icmp eq i64 %arg1, 0 br i1 %0, label LBL_2, label LBL_1 LBL_1: %1 = call i64 @FUNC(i64 %arg1) %2 = add i64 %arg1, 8 %3 = inttoptr i64 %2 to i64* %4 = load i64, i64* %3, align 8 %5 = call i64 @FUNC(i64 %4) %6 = add i64 %arg1, 16 %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = call i64 @FUNC(i64 %8) %10 = add i64 %arg1, 24 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = call i64 @FUNC(i64 %12) %14 = add i64 %arg1, 32 %15 = inttoptr i64 %14 to i64* %16 = load i64, i64* %15, align 8 %17 = call i64 @FUNC(i64 %16) %18 = add i64 %arg1, 40 %19 = inttoptr i64 %18 to i64* %20 = load i64, i64* %19, align 8 %21 = call i64 @FUNC(i64 %20) %22 = add i64 %arg1, 48 %23 = inttoptr i64 %22 to i64* %24 = load i64, i64* %23, align 8 %25 = call i64 @FUNC(i64 %24) %26 = add i64 %arg1, 56 %27 = inttoptr i64 %26 to i64* %28 = load i64, i64* %27, align 8 %29 = call i64 @FUNC(i64 %28) %30 = add i64 %arg1, 64 %31 = inttoptr i64 %30 to i64* %32 = load i64, i64* %31, align 8 %33 = call i64 @FUNC(i64 %32) %34 = add i64 %arg1, 72 %35 = inttoptr i64 %34 to i64* %36 = load i64, i64* %35, align 8 %37 = call i64 @FUNC(i64 %36) %38 = add i64 %arg1, 80 %39 = inttoptr i64 %38 to i64* %40 = load i64, i64* %39, align 8 %41 = call i64 @FUNC(i64 %40) %42 = add i64 %arg1, 88 %43 = inttoptr i64 %42 to i64* %44 = load i64, i64* %43, align 8 %45 = call i64 @FUNC(i64 %44) %46 = add i64 %arg1, 96 %47 = inttoptr i64 %46 to i64* %48 = load i64, i64* %47, align 8 %49 = call i64 @FUNC(i64 %48) store i64 0, i64* %47, align 8 %50 = add i64 %arg1, 104 %51 = inttoptr i64 %50 to i64* %52 = load i64, i64* %51, align 8 %53 = call i64 @FUNC(i64 %52) store i64 %53, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 (i64)* @xfree, { 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder i32 1, { 3, 2, 1, 0 } uselistorder i64 %arg1, { 0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 13, 14 } }
1
CompRealVul
mptsas_fetch_request_19249
mptsas_fetch_request
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 %sv_1 = alloca i64, align 8 %3 = trunc i64 %1 to i32 %4 = icmp eq i32 %3, 1 br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i64 %2, i64 2) store i64 %5, i64* %rax.0.reg2mem br label LBL_10 LBL_2: %6 = bitcast i64* %sv_1 to i32* %7 = add i64 %2, 8 %8 = inttoptr i64 %7 to i64* %9 = load i64, i64* %8, align 8 %10 = call i64 @FUNC(i64 %2, i64 %9, i64* nonnull %sv_1, i64 8) %11 = load i32, i32* %6, align 8 %12 = icmp ult i32 %11, 4 br i1 %12, label LBL_3, label LBL_9 LBL_3: %13 = sext i32 %11 to i64 %14 = mul i64 %13, 4 %15 = add i64 %14, ptrtoint (i32** @gv_0 to i64) %16 = inttoptr i64 %15 to i32* %17 = load i32, i32* %16, align 4 %18 = icmp eq i32 %17, 0 store i32 %11, i32* %.reg2mem br i1 %18, label LBL_7, label LBL_4 LBL_4: %19 = icmp slt i32 %17, 4097 br i1 %19, label LBL_6, label LBL_5 LBL_5: call void @__assert_fail(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_1, i64 0, i64 0), i8* getelementptr inbounds ([54 x i8], [54 x i8]* @gv_2, i64 0, i64 0), i32 63, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_3, i64 0, i64 0)) br label LBL_6 LBL_6: %20 = add i32 %17, -8 %21 = zext i32 %20 to i64 %22 = add i64 %9, 8 %23 = call i64 @FUNC(i64 %2, i64 %22, i64* nonnull %sv_0, i64 %21) %.pre = load i32, i32* %6, align 8 store i32 %.pre, i32* %.reg2mem br label LBL_7 LBL_7: %.reload = load i32, i32* %.reg2mem %24 = icmp eq i32 %.reload, 1 %25 = icmp eq i1 %24, false br i1 %25, label LBL_9, label LBL_8 LBL_8: %26 = call i64 @FUNC(i64 %2, i64* nonnull %sv_1, i64 %9) store i64 %26, i64* %rax.0.reg2mem br label LBL_10 LBL_9: %27 = call i64 @FUNC(i64 %2, i64* nonnull %sv_1) store i64 %27, i64* %rax.0.reg2mem br label LBL_10 LBL_10: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %9, { 1, 0, 2 } uselistorder i64* %sv_1, { 1, 2, 3, 0 } uselistorder i64 %2, { 2, 1, 0, 3, 4, 5 } uselistorder i32* %.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder i64 (i64, i64, i64*, i64)* @pci_dma_read, { 1, 0 } uselistorder i64 8, { 1, 0, 2 } uselistorder label LBL_9, { 1, 0 } }
1
CompRealVul
ibwdt_set_heartbeat_5690
ibwdt_set_heartbeat
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge3.lcssa.reg2mem = alloca i32 %storemerge35.reg2mem = alloca i32 %0 = trunc i64 %arg1 to i32 %1 = icmp ult i32 %0, 31 store i64 4294967274, i64* %storemerge.reg2mem br i1 %1, label LBL_1, label LBL_5 LBL_1: %sext = mul i64 %arg1, 4294967296 %2 = ashr exact i64 %sext, 32 store i32 15, i32* %storemerge35.reg2mem br label LBL_2 LBL_2: %storemerge35.reload = load i32, i32* %storemerge35.reg2mem %3 = sext i32 %storemerge35.reload to i64 %4 = mul i64 %3, 4 %5 = add i64 %4, ptrtoint (i32** @gv_0 to i64) %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = zext i32 %7 to i64 %9 = icmp sgt i64 %2, %8 store i32 %storemerge35.reload, i32* %storemerge3.lcssa.reg2mem br i1 %9, label LBL_3, label LBL_4 LBL_3: %10 = add i32 %storemerge35.reload, -1 %11 = icmp slt i32 %10, 0 %12 = icmp eq i1 %11, false store i32 %10, i32* %storemerge35.reg2mem store i32 %10, i32* %storemerge3.lcssa.reg2mem br i1 %12, label LBL_2, label LBL_4 LBL_4: %storemerge3.lcssa.reload = load i32, i32* %storemerge3.lcssa.reg2mem store i32 %storemerge3.lcssa.reload, i32* inttoptr (i64 4210820 to i32*), align 4 store i64 0, i64* %storemerge.reg2mem br label LBL_5 LBL_5: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32 %storemerge35.reload, { 1, 0, 2 } uselistorder i32* %storemerge35.reg2mem, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32 1, { 2, 1, 0 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_4, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
nsc_encode_sse2_11265
nsc_encode_sse2
define i64 @FUNC(i32* %arg1, i64* %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg2 to i64 %3 = ptrtoint i32* %arg1 to i64 %4 = call i64 @FUNC(i64 %3, i64 %2, i32 %arg3) %5 = trunc i64 %1 to i32 %6 = and i64 %1, 4294967295 %7 = icmp slt i32 %5, 1 store i64 %6, i64* %rax.0.reg2mem br i1 %7, label LBL_2, label LBL_1 LBL_1: %8 = call i64 @FUNC(i64 %3) store i64 %8, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %1, { 1, 0 } }
1
CompRealVul
parse_new_connection_id_frame_19282
parse_new_connection_id_frame
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = call i64* @malloc(i32 56) %5 = ptrtoint i64* %4 to i64 %6 = icmp eq i64* %4, null %7 = icmp eq i1 %6, false br i1 %7, label LBL_2, label LBL_1 LBL_1: %8 = call i32 @puts(i8* getelementptr inbounds ([56 x i8], [56 x i8]* @gv_0, i64 0, i64 0)) %9 = call i64 @FUNC(i64 %0, i64 %5, i32 1, i32 1) store i64 0, i64* %storemerge.reg2mem br label LBL_10 LBL_2: %10 = call i64 @FUNC(i64 %0) %11 = add i64 %10, %0 %12 = call i64 @FUNC(i64 %11, i64 %3, i64 %5) %13 = icmp eq i64 %12, 0 br i1 %13, label LBL_7, label LBL_3 LBL_3: %14 = add i64 %5, 8 %15 = call i64 @FUNC(i64 %12, i64 %3, i64 %14) %16 = icmp eq i64 %15, 0 br i1 %16, label LBL_7, label LBL_4 LBL_4: %17 = add i64 %5, 16 %18 = call i64 @FUNC(i64 %15, i64 %3, i64 %17) %19 = icmp eq i64 %18, 0 br i1 %19, label LBL_7, label LBL_5 LBL_5: %20 = inttoptr i64 %17 to i8* %21 = load i8, i8* %20, align 1 %22 = icmp ult i8 %21, 21 br i1 %22, label LBL_6, label LBL_7 LBL_6: %23 = zext i8 %21 to i64 %24 = add i64 %18, 16 %25 = add i64 %24, %23 %26 = icmp ult i64 %3, %25 %storemerge1 = select i1 %26, i64 0, i64 %18 %27 = icmp eq i64 %storemerge1, 0 %28 = icmp eq i1 %27, false br i1 %28, label LBL_8, label LBL_7 LBL_7: %29 = call i64 @FUNC(i64 %0, i64 1, i64 2) call void @free(i64* %4) store i64 0, i64* %sv_1.0.reg2mem store i64 0, i64* %sv_0.0.reg2mem br label LBL_9 LBL_8: %30 = add i64 %5, 17 %31 = inttoptr i64 %30 to i64* %32 = inttoptr i64 %storemerge1 to i64* %33 = zext i8 %21 to i32 %34 = call i64* @memcpy(i64* %31, i64* %32, i32 %33) %35 = load i8, i8* %20, align 1 %36 = zext i8 %35 to i64 %37 = add i64 %storemerge1, %36 %38 = add i64 %5, 37 %39 = add i64 %37, 8 %40 = inttoptr i64 %39 to i64* %41 = load i64, i64* %40, align 8 %42 = inttoptr i64 %37 to i64* %43 = load i64, i64* %42, align 8 %44 = inttoptr i64 %38 to i64* store i64 %43, i64* %44, align 8 %45 = add i64 %5, 45 %46 = inttoptr i64 %45 to i64* store i64 %41, i64* %46, align 8 %47 = add i64 %37, 16 store i64 %47, i64* %sv_1.0.reg2mem store i64 %5, i64* %sv_0.0.reg2mem br label LBL_9 LBL_9: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %48 = call i64 @FUNC(i64 %0, i64 %sv_0.0.reload, i32 1, i32 1) store i64 %sv_1.0.reload, i64* %storemerge.reg2mem br label LBL_10 LBL_10: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %37, { 2, 1, 0 } uselistorder i64 %18, { 1, 0, 2 } uselistorder i64 %5, { 0, 2, 3, 4, 5, 6, 7, 1 } uselistorder i64 %0, { 2, 3, 0, 4, 1, 5 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 1, { 1, 0 } uselistorder i64 (i64, i64, i64)* @picoquic_frames_varint_decode, { 1, 0 } uselistorder i64 (i64, i64, i32, i32)* @protoop_save_outputs, { 1, 0 } uselistorder label LBL_7, { 1, 0, 2, 3, 4 } }
1
CompRealVul
escape_xml_19097
escape_xml
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %.reg2mem18 = alloca i8* %sv_0.0.reg2mem = alloca i64 %.reg2mem16 = alloca i8* %.reg2mem14 = alloca i8 %.reg2mem12 = alloca i8* %sv_1.02.reg2mem = alloca i64 %sv_0.13.reg2mem = alloca i64 %.reg2mem10 = alloca i8* %.reg2mem8 = alloca i8 %.reg2mem = alloca i8* %1 = load i64, i64* %0 %sv_2 = alloca i8*, align 8 %2 = trunc i64 %1 to i8 %3 = icmp eq i8 %2, 0 %4 = icmp eq i1 %3, false store i64 ptrtoint ([13 x i8]* @gv_0 to i64), i64* %rax.0.reg2mem br i1 %4, label LBL_1, label LBL_15 LBL_1: %5 = load i8*, i8** @gv_1, align 8 %6 = ptrtoint i8* %5 to i64 %7 = bitcast i8** %sv_2 to i64* store i64 %6, i64* %7, align 8 %8 = inttoptr i64 %arg1 to i8* %9 = load i8, i8* %8, align 1 %10 = icmp eq i8 %9, 0 %11 = icmp eq i1 %10, false store i8* %5, i8** %.reg2mem store i8 %9, i8* %.reg2mem8 store i8* %8, i8** %.reg2mem10 store i64 0, i64* %sv_0.13.reg2mem store i64 %arg1, i64* %sv_1.02.reg2mem store i8* %5, i8** %.reg2mem18 br i1 %11, label LBL_2, label LBL_14 LBL_2: %sv_1.02.reload = load i64, i64* %sv_1.02.reg2mem %sv_0.13.reload = load i64, i64* %sv_0.13.reg2mem %.reload9 = load i8, i8* %.reg2mem8 %.reload = load i8*, i8** %.reg2mem %12 = add i64 %sv_0.13.reload, 8 %13 = load i32, i32* @gv_2, align 4 %14 = sext i32 %13 to i64 %15 = icmp ugt i64 %12, %14 store i8* %.reload, i8** %.reg2mem12 store i8 %.reload9, i8* %.reg2mem14 br i1 %15, label LBL_3, label LBL_6 LBL_3: %16 = add i32 %13, 128 store i32 %16, i32* @gv_2, align 4 %17 = load i8*, i8** @gv_1, align 8 %18 = bitcast i8* %17 to i64* %19 = call i64* @realloc(i64* %18, i32 %16) %20 = icmp eq i64* %19, null %21 = icmp eq i1 %20, false br i1 %21, label LBL_5, label LBL_4 LBL_4: %22 = load i8*, i8** @gv_1, align 8 %23 = bitcast i8* %22 to i64* call void @free(i64* %23) store i8* null, i8** @gv_1, align 8 store i32 0, i32* @gv_2, align 4 store i64 ptrtoint ([22 x i8]* @gv_3 to i64), i64* %rax.0.reg2mem br label LBL_15 LBL_5: %.reload11 = load i8*, i8** %.reg2mem10 %24 = ptrtoint i64* %19 to i64 %25 = add i64 %sv_0.13.reload, %24 %26 = inttoptr i64 %25 to i8* store i8* %26, i8** %sv_2, align 8 %27 = bitcast i64* %19 to i8* store i8* %27, i8** @gv_1, align 8 %.pre = load i8, i8* %.reload11, align 1 store i8* %26, i8** %.reg2mem12 store i8 %.pre, i8* %.reg2mem14 br label LBL_6 LBL_6: %.reload15 = load i8, i8* %.reg2mem14 %.reload13 = load i8*, i8** %.reg2mem12 %28 = icmp eq i8 %.reload15, 62 br i1 %28, label LBL_11, label LBL_7 LBL_7: %29 = icmp sgt i8 %.reload15, 62 br i1 %29, label LBL_12, label LBL_8 LBL_8: switch i8 %.reload15, label LBL_12 [ i8 38, label LBL_9 i8 60, label LBL_10 ] LBL_9: %30 = ptrtoint i8* %.reload13 to i64 %31 = bitcast i8* %.reload13 to i32* store i32 1886216486, i32* %31, align 4 %32 = add i64 %30, 4 %33 = inttoptr i64 %32 to i16* store i16 59, i16* %33, align 2 %34 = load i8*, i8** %sv_2, align 8 %35 = call i32 @strlen(i8* %34) %36 = sext i32 %35 to i64 %37 = add i64 %sv_0.13.reload, -1 %38 = add i64 %37, %36 %39 = load i8*, i8** @gv_1, align 8 %40 = ptrtoint i8* %39 to i64 %41 = add i64 %38, %40 %42 = inttoptr i64 %41 to i8* store i8* %42, i8** %sv_2, align 8 store i8* %42, i8** %.reg2mem16 store i64 %38, i64* %sv_0.0.reg2mem br label LBL_13 LBL_10: %43 = ptrtoint i8* %.reload13 to i64 %44 = bitcast i8* %.reload13 to i32* store i32 997485606, i32* %44, align 4 %45 = add i64 %43, 4 %46 = inttoptr i64 %45 to i8* store i8 0, i8* %46, align 1 %47 = load i8*, i8** %sv_2, align 8 %48 = call i32 @strlen(i8* %47) %49 = sext i32 %48 to i64 %50 = add i64 %sv_0.13.reload, -1 %51 = add i64 %50, %49 %52 = load i8*, i8** @gv_1, align 8 %53 = ptrtoint i8* %52 to i64 %54 = add i64 %51, %53 %55 = inttoptr i64 %54 to i8* store i8* %55, i8** %sv_2, align 8 store i8* %55, i8** %.reg2mem16 store i64 %51, i64* %sv_0.0.reg2mem br label LBL_13 LBL_11: %56 = ptrtoint i8* %.reload13 to i64 %57 = bitcast i8* %.reload13 to i32* store i32 997484326, i32* %57, align 4 %58 = add i64 %56, 4 %59 = inttoptr i64 %58 to i8* store i8 0, i8* %59, align 1 %60 = load i8*, i8** %sv_2, align 8 %61 = call i32 @strlen(i8* %60) %62 = sext i32 %61 to i64 %63 = add i64 %sv_0.13.reload, -1 %64 = add i64 %63, %62 %65 = load i8*, i8** @gv_1, align 8 %66 = ptrtoint i8* %65 to i64 %67 = add i64 %64, %66 %68 = inttoptr i64 %67 to i8* store i8* %68, i8** %sv_2, align 8 store i8* %68, i8** %.reg2mem16 store i64 %64, i64* %sv_0.0.reg2mem br label LBL_13 LBL_12: store i8 %.reload15, i8* %.reload13, align 1 %.pre6 = load i8*, i8** %sv_2, align 8 store i8* %.pre6, i8** %.reg2mem16 store i64 %sv_0.13.reload, i64* %sv_0.0.reg2mem br label LBL_13 LBL_13: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %.reload17 = load i8*, i8** %.reg2mem16 %69 = add i64 %sv_0.0.reload, 1 %70 = ptrtoint i8* %.reload17 to i64 %71 = add i64 %70, 1 %72 = inttoptr i64 %71 to i8* store i8* %72, i8** %sv_2, align 8 %73 = add i64 %sv_1.02.reload, 1 %74 = inttoptr i64 %73 to i8* %75 = load i8, i8* %74, align 1 %76 = icmp eq i8 %75, 0 %77 = icmp eq i1 %76, false store i8* %72, i8** %.reg2mem store i8 %75, i8* %.reg2mem8 store i8* %74, i8** %.reg2mem10 store i64 %69, i64* %sv_0.13.reg2mem store i64 %73, i64* %sv_1.02.reg2mem store i8* %72, i8** %.reg2mem18 br i1 %77, label LBL_2, label LBL_14 LBL_14: %.reload19 = load i8*, i8** %.reg2mem18 store i8 0, i8* %.reload19, align 1 %78 = load i8*, i8** @gv_1, align 8 %79 = ptrtoint i8* %78 to i64 store i64 %79, i64* %rax.0.reg2mem br label LBL_15 LBL_15: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i8* %.reload13, { 2, 0, 1, 6, 5, 4, 3 } uselistorder i8 %.reload15, { 3, 0, 1, 2 } uselistorder i64* %19, { 0, 2, 1 } uselistorder i64 %sv_0.13.reload, { 0, 2, 4, 3, 5, 1 } uselistorder i8** %sv_2, { 9, 0, 8, 7, 6, 5, 4, 3, 2, 1 } uselistorder i8** %.reg2mem, { 2, 0, 1 } uselistorder i8* %.reg2mem8, { 2, 0, 1 } uselistorder i8** %.reg2mem10, { 2, 0, 1 } uselistorder i64* %sv_0.13.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_1.02.reg2mem, { 2, 0, 1 } uselistorder i8** %.reg2mem16, { 0, 3, 4, 1, 2 } uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 4, 1, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 } uselistorder i64 -1, { 0, 2, 1 } uselistorder i32 (i8*)* @strlen, { 2, 0, 1 } uselistorder i32* @gv_2, { 2, 1, 0 } uselistorder i8** @gv_1, { 8, 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder i1 false, { 2, 1, 0, 3 } uselistorder i8 0, { 3, 4, 1, 2, 0, 5 } uselistorder i32 1, { 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder label LBL_15, { 2, 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
memory_map_init_15545
memory_map_init
define i64 @FUNC() local_unnamed_addr { LBL_0: %0 = call i64 @FUNC(i64 16) store i64 %0, i64* @gv_0, align 8 %1 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_1, i64 0, i64 0), i64 -1) %2 = load i64, i64* @gv_0, align 8 %3 = call i64 @FUNC(i64 %2) ret i64 %3 }
1
CompRealVul
virtio_net_handle_ctrl_14347
virtio_net_handle_ctrl
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = alloca i32 %2 = alloca i8 %.lcssa.reg2mem = alloca i64 %3 = ptrtoint i64* %arg2 to i64 %4 = load i8, i8* %2 %sv_0 = alloca i8, align 1 %sv_1 = alloca i32, align 4 %sv_2 = alloca i64, align 8 %5 = load i64, i64* %0 %6 = load i32, i32* %1 %sv_3 = alloca i64, align 8 %7 = load i32, i32* %1 %sv_4 = alloca i32, align 4 store i32 0, i32* %sv_4, align 4 %8 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3) %9 = trunc i64 %8 to i32 %10 = icmp eq i32 %9, 0 %11 = icmp eq i1 %10, false store i64 %8, i64* %.lcssa.reg2mem br i1 %11, label LBL_1, label LBL_22 LBL_1: %12 = ptrtoint i64* %arg1 to i64 %13 = zext i32 %7 to i64 %14 = zext i32 %6 to i64 %15 = bitcast i8* %sv_0 to i64* %16 = zext i8 %4 to i64 br label LBL_2 LBL_2: %17 = load i64, i64* %sv_3, align 8 %18 = call i64 @FUNC(i64 %17, i64 %13) %19 = icmp ult i64 %18, 4 br i1 %19, label LBL_4, label LBL_3 LBL_3: %20 = call i64 @FUNC(i64 %5, i64 %14) %21 = icmp ult i64 %20, 2 br i1 %21, label LBL_4, label LBL_5 LBL_4: %22 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_0, i64 0, i64 0)) call void @exit(i32 1) unreachable LBL_5: %23 = call i64 @FUNC(i64 %5, i32 %6, i64 0, i64* nonnull %15, i64 2) %24 = call i64 @FUNC(i64* nonnull %sv_2, i32* nonnull %sv_1, i64 2) %25 = icmp eq i64 %23, 2 br i1 %25, label LBL_7, label LBL_6 LBL_6: store i32 0, i32* %sv_4, align 4 br label LBL_19 LBL_7: %26 = load i8, i8* %sv_0, align 1 %27 = icmp eq i8 %26, 1 %28 = icmp eq i1 %27, false br i1 %28, label LBL_9, label LBL_8 LBL_8: %29 = load i32, i32* %sv_1, align 4 %30 = load i64, i64* %sv_2, align 8 %31 = call i64 @FUNC(i64 %12, i64 %16, i64 %30, i32 %29) %32 = trunc i64 %31 to i32 store i32 %32, i32* %sv_4, align 4 br label LBL_19 LBL_9: %33 = icmp eq i8 %26, 2 %34 = icmp eq i1 %33, false br i1 %34, label LBL_11, label LBL_10 LBL_10: %35 = load i32, i32* %sv_1, align 4 %36 = load i64, i64* %sv_2, align 8 %37 = call i64 @FUNC(i64 %12, i64 %16, i64 %36, i32 %35) %38 = trunc i64 %37 to i32 store i32 %38, i32* %sv_4, align 4 br label LBL_19 LBL_11: %39 = icmp eq i8 %26, 3 %40 = icmp eq i1 %39, false br i1 %40, label LBL_13, label LBL_12 LBL_12: %41 = load i32, i32* %sv_1, align 4 %42 = load i64, i64* %sv_2, align 8 %43 = call i64 @FUNC(i64 %12, i64 %16, i64 %42, i32 %41) %44 = trunc i64 %43 to i32 store i32 %44, i32* %sv_4, align 4 br label LBL_19 LBL_13: %45 = icmp eq i8 %26, 4 %46 = icmp eq i1 %45, false br i1 %46, label LBL_15, label LBL_14 LBL_14: %47 = load i32, i32* %sv_1, align 4 %48 = load i64, i64* %sv_2, align 8 %49 = call i64 @FUNC(i64 %12, i64 %16, i64 %48, i32 %47) %50 = trunc i64 %49 to i32 store i32 %50, i32* %sv_4, align 4 br label LBL_19 LBL_15: %51 = icmp eq i8 %26, 5 %52 = icmp eq i1 %51, false br i1 %52, label LBL_17, label LBL_16 LBL_16: %53 = load i32, i32* %sv_1, align 4 %54 = load i64, i64* %sv_2, align 8 %55 = call i64 @FUNC(i64 %12, i64 %16, i64 %54, i32 %53) %56 = trunc i64 %55 to i32 store i32 %56, i32* %sv_4, align 4 br label LBL_19 LBL_17: %57 = icmp eq i8 %26, 6 %58 = icmp eq i1 %57, false br i1 %58, label LBL_19, label LBL_18 LBL_18: %59 = load i32, i32* %sv_1, align 4 %60 = load i64, i64* %sv_2, align 8 %61 = call i64 @FUNC(i64 %12, i64 %16, i64 %60, i32 %59) %62 = trunc i64 %61 to i32 store i32 %62, i32* %sv_4, align 4 br label LBL_19 LBL_19: %63 = load i64, i64* %sv_3, align 8 %64 = call i64 @FUNC(i64 %63, i32 %7, i64 0, i32* nonnull %sv_4, i64 4) %65 = icmp eq i64 %64, 4 br i1 %65, label LBL_21, label LBL_20 LBL_20: call void @__assert_fail(i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_1, i64 0, i64 0), i8* getelementptr inbounds ([56 x i8], [56 x i8]* @gv_2, i64 0, i64 0), i32 147, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_3, i64 0, i64 0)) br label LBL_21 LBL_21: %66 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3, i64 4) %67 = call i64 @FUNC(i64 %12, i64 %3) %68 = call i64 @FUNC(i64 %3, i64* nonnull %sv_3) %69 = trunc i64 %68 to i32 %70 = icmp eq i32 %69, 0 %71 = icmp eq i1 %70, false store i64 %68, i64* %.lcssa.reg2mem br i1 %71, label LBL_2, label LBL_22 LBL_22: %.lcssa.reload = load i64, i64* %.lcssa.reg2mem ret i64 %.lcssa.reload uselistorder i64 %12, { 6, 5, 4, 3, 2, 1, 0 } uselistorder i64* %sv_3, { 1, 2, 3, 4, 0 } uselistorder i64* %sv_2, { 1, 2, 3, 4, 5, 6, 0 } uselistorder i32* %sv_1, { 1, 2, 3, 4, 5, 6, 0 } uselistorder i64 %3, { 3, 2, 1, 0 } uselistorder i32* %1, { 1, 0 } uselistorder i64 2, { 0, 2, 3, 1 } uselistorder i64 4, { 2, 0, 3, 1 } uselistorder i64 (i64, i64)* @iov_size, { 1, 0 } uselistorder i1 false, { 7, 1, 2, 3, 4, 5, 6, 0 } uselistorder i64 (i64, i64*)* @virtqueue_pop, { 1, 0 } uselistorder i32 0, { 3, 1, 0, 2 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
nbd_client_thread_15989
nbd_client_thread
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %sv_1 = alloca i32, align 4 %sv_2 = alloca i64, align 8 %sv_3 = alloca i64, align 8 %0 = load i64, i64* bitcast ([2 x i8*]* @gv_0 to i64*), align 8 %1 = call i64 @FUNC(i64 %0) %2 = trunc i64 %1 to i32 %3 = icmp slt i32 %2, 0 br i1 %3, label LBL_10, label LBL_1 LBL_1: %4 = and i64 %1, 4294967295 %5 = bitcast i32* %sv_1 to i64* %6 = call i64 @FUNC(i64 %4, i64 0, i64* nonnull %5, i64* nonnull %sv_2, i64* nonnull %sv_3) %7 = trunc i64 %6 to i32 %8 = icmp slt i32 %7, 0 br i1 %8, label LBL_10, label LBL_2 LBL_2: %9 = inttoptr i64 %arg1 to i8* %10 = call i32 (i8*, i32, ...) @open(i8* %9, i32 2) %11 = icmp slt i32 %10, 0 %12 = icmp eq i1 %11, false br i1 %12, label LBL_4, label LBL_3 LBL_3: %13 = ptrtoint i64* %sv_2 to i64 %14 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8 %15 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %14, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_2, i64 0, i64 0), i8* %9, i64 %13) br label LBL_10 LBL_4: %16 = load i64, i64* %sv_3, align 8 %17 = load i64, i64* %sv_2, align 8 %18 = load i32, i32* %sv_1, align 4 %19 = zext i32 %18 to i64 %20 = zext i32 %10 to i64 %21 = call i64 @FUNC(i64 %20, i32 %2, i64 %19, i64 %17, i64 %16) %22 = trunc i64 %21 to i32 %23 = icmp slt i32 %22, 0 br i1 %23, label LBL_10, label LBL_5 LBL_5: %24 = bitcast i64* %sv_0 to i32* %25 = inttoptr i64 %arg1 to i64* %26 = call i32 @pthread_create(i32* nonnull %24, i64* null, i64* (i64*)* inttoptr (i64 4198944 to i64* (i64*)*), i64* %25) %27 = load i32, i32* @gv_3, align 4 %28 = icmp eq i32 %27, 0 br i1 %28, label LBL_7, label LBL_6 LBL_6: %29 = load [13 x i8]*, [13 x i8]** @gv_4, align 8 %30 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8 %31 = getelementptr inbounds [13 x i8], [13 x i8]* %29, i64 0, i64 0 %32 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %30, i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_5, i64 0, i64 0), i8* %9, i8* %31) br label LBL_8 LBL_7: %33 = call i32 @dup2(i32 1, i32 2) br label LBL_8 LBL_8: %34 = call i64 @FUNC(i64 %20) %35 = trunc i64 %34 to i32 %36 = icmp eq i32 %35, 0 %37 = icmp eq i1 %36, false br i1 %37, label LBL_10, label LBL_9 LBL_9: %38 = call i32 @close(i32 %10) %39 = call i32 @getpid() %40 = call i32 @kill(i32 %39, i32 15) store i64 0, i64* %storemerge.reg2mem br label LBL_11 LBL_10: %41 = call i32 @getpid() %42 = call i32 @kill(i32 %41, i32 15) store i64 1, i64* %storemerge.reg2mem br label LBL_11 LBL_11: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i8* %9, { 1, 0, 2 } uselistorder i64* %sv_3, { 1, 0 } uselistorder i64* %sv_2, { 1, 2, 0 } uselistorder i32 (i32, i32)* @kill, { 1, 0 } uselistorder i32 15, { 1, 0 } uselistorder i32 ()* @getpid, { 1, 0 } uselistorder i32 0, { 5, 6, 7, 8, 9, 10, 11, 0, 1, 2, 3, 4 } uselistorder label LBL_10, { 0, 1, 4, 2, 3 } }
1
CompRealVul
bdrv_get_dirty_16499
bdrv_get_dirty
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = icmp eq i64* %arg1, null store i64 0, i64* %storemerge.reg2mem br i1 %0, label LBL_3, label LBL_1 LBL_1: %1 = ptrtoint i64* %arg1 to i64 %2 = mul i64 %arg2, 512 %3 = call i64 @FUNC(i64 %1) %4 = icmp sgt i64 %2, %3 store i64 0, i64* %storemerge.reg2mem br i1 %4, label LBL_3, label LBL_2 LBL_2: %5 = add i64 %arg2, 63 %6 = icmp slt i64 %arg2, 0 %7 = select i1 %6, i64 %5, i64 %arg2 %8 = ashr i64 %7, 6 %9 = mul i64 %8, 8 %10 = add i64 %9, %1 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 store i64 %12, i64* %storemerge.reg2mem br label LBL_3 LBL_3: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 3, 2, 1 } uselistorder i64 %arg2, { 1, 2, 3, 0 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_3, { 2, 1, 0 } }
1
CompRealVul
virtio_scsi_handle_cmd_14244
virtio_scsi_handle_cmd
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.0.ph.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = icmp eq i64* %arg1, null br i1 %1, label LBL_2, label LBL_1 LBL_1: %2 = add i64 %0, 8 %3 = inttoptr i64 %2 to i32* %4 = load i32, i32* %3, align 4 %5 = icmp eq i32 %4, 0 %6 = icmp eq i1 %5, false br i1 %6, label LBL_2, label LBL_3 LBL_2: %7 = ptrtoint i64* %arg2 to i64 store i64 0, i64* %sv_0.0.ph.reg2mem br label LBL_6 LBL_3: %8 = call i64 @FUNC(i64 %0) store i64 %8, i64* %rax.0.reg2mem br label LBL_8 LBL_4: %9 = call i64 @FUNC(i64 %0, i64 %14) %10 = trunc i64 %9 to i32 %11 = icmp eq i32 %10, 0 br i1 %11, label LBL_7, label LBL_5 LBL_5: %12 = inttoptr i64 %14 to i64* store i64 0, i64* %12, align 8 %13 = inttoptr i64 %sv_0.0.ph.reload to i64* store i64 %14, i64* %13, align 8 store i64 %14, i64* %sv_0.0.ph.reg2mem br label LBL_6 LBL_6: %sv_0.0.ph.reload = load i64, i64* %sv_0.0.ph.reg2mem br label LBL_7 LBL_7: %14 = call i64 @FUNC(i64 %0, i64 %7) %15 = icmp eq i64 %14, 0 %16 = icmp eq i1 %15, false store i64 0, i64* %rax.0.reg2mem br i1 %16, label LBL_4, label LBL_8 LBL_8: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %14, { 4, 3, 2, 1, 0 } uselistorder i64 %0, { 3, 2, 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
decode_user_data_14545
decode_user_data
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i32 %sv_0.03.reg2mem = alloca i32 %storemerge2.lcssa.reg2mem = alloca i32 %storemerge25.reg2mem = alloca i32 %indvars.iv.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i64, align 8 %sv_2 = alloca i64, align 8 %sv_3 = alloca i64, align 8 %sv_4 = alloca i64, align 8 %sv_5 = alloca i64, align 8 %sv_6 = alloca i8, align 1 %sv_7 = alloca i64, align 8 %2 = ptrtoint i64* %sv_7 to i64 %3 = add i64 %2, -272 store i64 0, i64* %indvars.iv.reg2mem store i32 0, i32* %storemerge25.reg2mem br label LBL_1 LBL_1: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %4 = call i64 @FUNC(i64 %0, i64 23) %5 = trunc i64 %4 to i32 %6 = icmp eq i32 %5, 0 br i1 %6, label LBL_3, label LBL_2 LBL_2: %storemerge25.reload = load i32, i32* %storemerge25.reg2mem %7 = call i64 @FUNC(i64 %0, i64 8) %8 = trunc i64 %7 to i8 %9 = add i64 %indvars.iv.reload, %3 %10 = inttoptr i64 %9 to i8* store i8 %8, i8* %10, align 1 %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %11 = add nuw nsw i32 %storemerge25.reload, 1 %12 = icmp ult i64 %indvars.iv.next, 255 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem store i32 %11, i32* %storemerge25.reg2mem store i32 %11, i32* %storemerge2.lcssa.reg2mem br i1 %12, label LBL_1, label LBL_4 LBL_3: %13 = trunc i64 %indvars.iv.reload to i32 store i32 %13, i32* %storemerge2.lcssa.reg2mem br label LBL_4 LBL_4: %storemerge2.lcssa.reload = load i32, i32* %storemerge2.lcssa.reg2mem %14 = sext i32 %storemerge2.lcssa.reload to i64 %15 = add i64 %3, %14 %16 = inttoptr i64 %15 to i8* store i8 0, i8* %16, align 1 %17 = bitcast i64* %sv_3 to i8* %18 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_5, i8* nonnull %sv_6) %19 = icmp sgt i32 %18, 1 store i32 %18, i32* %sv_0.03.reg2mem br i1 %19, label LBL_6, label LBL_5 LBL_5: %20 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_1, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_5, i8* nonnull %sv_6) %21 = icmp slt i32 %20, 2 store i32 %20, i32* %sv_0.03.reg2mem br i1 %21, label LBL_10, label LBL_6 LBL_6: %sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem %22 = load i64, i64* %sv_4, align 8 %23 = trunc i64 %22 to i32 %24 = bitcast i64* %arg1 to i32* store i32 %23, i32* %24, align 4 %25 = load i64, i64* %sv_5, align 8 %26 = trunc i64 %25 to i32 %27 = add i64 %1, 4 %28 = inttoptr i64 %27 to i32* store i32 %26, i32* %28, align 4 %29 = icmp eq i32 %sv_0.03.reload, 3 %30 = icmp eq i1 %29, false br i1 %30, label LBL_8, label LBL_7 LBL_7: %31 = load i8, i8* %sv_6, align 1 %32 = icmp eq i8 %31, 112 %33 = icmp eq i1 %32, false store i32 1, i32* %storemerge.reg2mem br i1 %33, label LBL_8, label LBL_9 LBL_8: store i32 0, i32* %storemerge.reg2mem br label LBL_9 LBL_9: %storemerge.reload = load i32, i32* %storemerge.reg2mem %34 = add i64 %1, 8 %35 = inttoptr i64 %34 to i32* store i32 %storemerge.reload, i32* %35, align 4 br label LBL_10 LBL_10: %36 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0), i64* nonnull %sv_5, i64* nonnull %sv_5, i8* nonnull %sv_6) %37 = icmp eq i32 %36, 1 br i1 %37, label LBL_15, label LBL_11 LBL_11: %38 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_3, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_1, i64* nonnull %sv_2, i64* nonnull %sv_5) %39 = icmp eq i32 %38, 4 br i1 %39, label LBL_15, label LBL_12 LBL_12: %40 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_4, i64 0, i64 0), i64* nonnull %sv_4, i64* nonnull %sv_1, i64* nonnull %sv_2) %41 = load i64, i64* %sv_4, align 8 %42 = trunc i64 %41 to i32 %43 = mul i32 %42, 65536 %44 = load i64, i64* %sv_1, align 8 %45 = trunc i64 %44 to i32 %46 = mul i32 %45, 256 %47 = add i32 %46, %43 %48 = load i64, i64* %sv_2, align 8 %49 = trunc i64 %48 to i32 %50 = add i32 %47, %49 %51 = sext i32 %50 to i64 store i64 %51, i64* %sv_5, align 8 %52 = icmp eq i32 %40, 3 br i1 %52, label LBL_15, label LBL_13 LBL_13: %53 = call i32 @strcmp(i8* nonnull %17, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_5, i64 0, i64 0)) %54 = icmp eq i32 %53, 0 %55 = icmp eq i1 %54, false br i1 %55, label LBL_16, label LBL_14 LBL_14: %56 = add i64 %1, 12 %57 = inttoptr i64 %56 to i32* store i32 4600, i32* %57, align 4 br label LBL_16 LBL_15: %58 = load i64, i64* %sv_5, align 8 %59 = trunc i64 %58 to i32 %60 = add i64 %1, 12 %61 = inttoptr i64 %60 to i32* store i32 %59, i32* %61, align 4 br label LBL_16 LBL_16: %62 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %17, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_6, i64 0, i64 0), i64* nonnull %sv_5) %63 = icmp eq i32 %62, 1 %64 = icmp eq i1 %63, false br i1 %64, label LBL_18, label LBL_17 LBL_17: %65 = load i64, i64* %sv_5, align 8 %66 = trunc i64 %65 to i32 %67 = add i64 %1, 16 %68 = inttoptr i64 %67 to i32* store i32 %66, i32* %68, align 4 br label LBL_18 LBL_18: ret i64 0 uselistorder i8* %17, { 4, 3, 2, 1, 5, 0, 6 } uselistorder i64 %indvars.iv.reload, { 2, 0, 1 } uselistorder i8* %sv_6, { 0, 1, 3, 2 } uselistorder i64* %sv_5, { 6, 1, 7, 8, 2, 0, 3, 9, 4, 5 } uselistorder i64* %sv_4, { 4, 0, 1, 5, 2, 3 } uselistorder i64* %sv_2, { 2, 0, 1 } uselistorder i64* %sv_1, { 2, 0, 1 } uselistorder i64 %1, { 4, 3, 2, 0, 1 } uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge25.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge2.lcssa.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_0.03.reg2mem, { 0, 2, 1 } uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32 (i8*, i8*, ...)* @sscanf, { 2, 1, 0, 5, 4, 3 } uselistorder i64 1, { 1, 0 } uselistorder i64 8, { 1, 0 } uselistorder i32 0, { 2, 0, 3, 1 } uselistorder label LBL_16, { 2, 1, 0 } uselistorder label LBL_15, { 2, 0, 1 } uselistorder label LBL_9, { 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_4, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
1
CompRealVul
rle8_write_unc_68
rle8_write_unc
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi.1.reg2mem = alloca i64 %.pre-phi4.reg2mem = alloca i64* %storemerge2.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i8, align 1 %1 = icmp eq i64* %arg1, null store i64 %0, i64* %rax.0.reg2mem br i1 %1, label LBL_12, label LBL_1 LBL_1: %2 = icmp ult i64* %arg1, inttoptr (i64 3 to i64*) %3 = urem i64 %0, 2 %4 = icmp eq i64 %3, 0 %or.cond = or i1 %2, %4 br i1 %or.cond, label LBL_3, label LBL_2 LBL_2: %5 = add i64 %0, 32 %6 = inttoptr i64 %5 to i64* %7 = load i64, i64* %6, align 8 %8 = call i64 @FUNC(i64 %7, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_0, i64 0, i64 0)) store i64 %8, i64* %rax.0.reg2mem br label LBL_12 LBL_3: %9 = icmp ult i64* %arg1, inttoptr (i64 255 to i64*) br i1 %9, label LBL_5, label LBL_4 LBL_4: %10 = add i64 %0, 32 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = call i64 @FUNC(i64 %12, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_1, i64 0, i64 0)) store i64 %13, i64* %rax.0.reg2mem br label LBL_12 LBL_5: br i1 %2, label LBL_6, label LBL_8 LBL_6: %14 = add i64 %0, 40 %15 = inttoptr i64 %14 to i64* %16 = add i64 %0, 16 %17 = inttoptr i64 %16 to i64* store i64 0, i64* %storemerge2.reg2mem br label LBL_7 LBL_7: %storemerge2.reload = load i64, i64* %storemerge2.reg2mem store i8 1, i8* %sv_0, align 1 %18 = load i64, i64* %15, align 8 %19 = call i64 @FUNC(i64 %18, i8* nonnull %sv_0, i64 2) %20 = load i64, i64* %17, align 8 %21 = add i64 %20, 2 store i64 %21, i64* %17, align 8 %22 = add nuw i64 %storemerge2.reload, 1 %23 = icmp ult i64 %22, %18 store i64 %22, i64* %storemerge2.reg2mem br i1 %23, label LBL_7, label LBL_10 LBL_8: store i8 0, i8* %sv_0, align 1 %24 = add i64 %0, 40 %25 = inttoptr i64 %24 to i64* %26 = load i64, i64* %25, align 8 %27 = call i64 @FUNC(i64 %26, i8* nonnull %sv_0, i64 2) %28 = add i64 %0, 16 %29 = inttoptr i64 %28 to i64* %30 = load i64, i64* %29, align 8 %31 = add i64 %30, 2 store i64 %31, i64* %29, align 8 %32 = add i64 %0, 24 %33 = inttoptr i64 %32 to i64* %34 = load i64, i64* %33, align 8 %35 = add i64 %0, 8 %36 = inttoptr i64 %35 to i64* %37 = load i64, i64* %36, align 8 %38 = add i64 %37, %34 %39 = load i64, i64* %25, align 8 %40 = inttoptr i64 %38 to i8* %41 = call i64 @FUNC(i64 %39, i8* %40, i64 %26) %42 = load i64, i64* %29, align 8 %43 = add i64 %42, %39 store i64 %43, i64* %29, align 8 %44 = urem i64 %39, 2 %45 = icmp eq i64 %44, 0 store i64* %36, i64** %.pre-phi4.reg2mem store i64 %39, i64* %rdi.1.reg2mem br i1 %45, label LBL_11, label LBL_9 LBL_9: store i8 0, i8* %sv_0, align 1 %46 = load i64, i64* %25, align 8 %47 = call i64 @FUNC(i64 %46, i8* nonnull %sv_0, i64 1) %48 = load i64, i64* %29, align 8 %49 = add i64 %48, 1 store i64 %49, i64* %29, align 8 store i64* %36, i64** %.pre-phi4.reg2mem store i64 %46, i64* %rdi.1.reg2mem br label LBL_11 LBL_10: %.pre = add i64 %0, 8 %.pre3 = inttoptr i64 %.pre to i64* store i64* %.pre3, i64** %.pre-phi4.reg2mem store i64 %18, i64* %rdi.1.reg2mem br label LBL_11 LBL_11: %rdi.1.reload = load i64, i64* %rdi.1.reg2mem %.pre-phi4.reload = load i64*, i64** %.pre-phi4.reg2mem %50 = load i64, i64* %.pre-phi4.reload, align 8 %51 = add i64 %50, %rdi.1.reload store i64 %51, i64* %.pre-phi4.reload, align 8 store i64 0, i64* %arg1, align 8 store i64 %0, i64* %rax.0.reg2mem br label LBL_12 LBL_12: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %36, { 1, 0, 2 } uselistorder i64* %29, { 0, 1, 3, 2, 4, 5 } uselistorder i8* %sv_0, { 0, 3, 1, 4, 2, 5 } uselistorder i64 %0, { 0, 3, 7, 6, 9, 8, 11, 10, 5, 4, 2, 1 } uselistorder i64* %storemerge2.reg2mem, { 1, 0, 2 } uselistorder i64** %.pre-phi4.reg2mem, { 0, 3, 2, 1 } uselistorder i64* %rdi.1.reg2mem, { 0, 3, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 4 } uselistorder i8 0, { 1, 2, 0 } uselistorder i64 1, { 1, 0, 2 } uselistorder i64 (i64, i8*, i64)* @iwbmp_write, { 3, 2, 1, 0 } uselistorder i64 (i64, i8*)* @iw_set_error, { 1, 0 } uselistorder i64 2, { 0, 4, 2, 5, 3, 1 } uselistorder label LBL_12, { 1, 2, 3, 0 } uselistorder label LBL_7, { 1, 0 } }
0
CompRealVul
serverCron_7479
serverCron
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i64 %storemerge412.reg2mem = alloca i32 %.reg2mem24 = alloca i64 %r8.2.reg2mem = alloca i64 %r9.1.lcssa.reg2mem = alloca i64 %r8.1.lcssa.reg2mem = alloca i64 %r9.0.reg2mem = alloca i64 %r8.0.reg2mem = alloca i64 %r8.113.reg2mem = alloca i64 %r9.114.reg2mem = alloca i64 %storemerge515.reg2mem = alloca i32 %.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %sv_0 = alloca i32, align 4 %4 = load i128, i128* @gv_0, align 8 %5 = trunc i128 %4 to i64 %6 = add i64 %5, 1 %7 = sext i64 %6 to i128 store i128 %7, i128* @gv_0, align 8 %8 = call i32 @time(i32* null) %9 = sext i32 %8 to i64 store i64 %9, i64* @gv_1, align 8 %10 = call i64 @FUNC() %11 = load i32, i32* @gv_2, align 4 %12 = icmp eq i32 %11, 0 br i1 %12, label LBL_4, label LBL_1 LBL_1: %13 = call i64 @FUNC() %14 = trunc i64 %13 to i32 %15 = icmp eq i32 %14, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_3, label LBL_2 LBL_2: call void @exit(i32 0) unreachable LBL_3: %17 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([96 x i8], [96 x i8]* @gv_3, i64 0, i64 0), i64 %6, i64 %3, i64 %2, i64 %1) br label LBL_4 LBL_4: %18 = load i32, i32* @gv_4, align 4 %19 = icmp eq i32 %18, 0 br i1 %19, label LBL_9, label LBL_5 LBL_5: store i64 0, i64* %.reg2mem store i32 0, i32* %storemerge515.reg2mem br label LBL_6 LBL_6: %r8.113.reload = load i64, i64* %r8.113.reg2mem %r9.114.reload = load i64, i64* %r9.114.reg2mem %storemerge515.reload = load i32, i32* %storemerge515.reg2mem %.reload = load i64, i64* %.reg2mem %20 = load i64, i64* @gv_5, align 8 %21 = mul i64 %.reload, 16 %22 = add i64 %20, %21 %23 = inttoptr i64 %22 to i64* %24 = load i64, i64* %23, align 8 %25 = call i64 @FUNC(i64 %24) %26 = load i64, i64* @gv_5, align 8 %27 = add i64 %26, %21 %28 = inttoptr i64 %27 to i64* %29 = load i64, i64* %28, align 8 %30 = call i64 @FUNC(i64 %29) %31 = load i64, i64* @gv_5, align 8 %32 = or i64 %21, 8 %33 = add i64 %31, %32 %34 = inttoptr i64 %33 to i64* %35 = load i64, i64* %34, align 8 %36 = call i64 @FUNC(i64 %35) %37 = or i64 %36, %30 %38 = icmp eq i64 %37, 0 store i64 %r8.113.reload, i64* %r8.0.reg2mem store i64 %r9.114.reload, i64* %r9.0.reg2mem br i1 %38, label LBL_8, label LBL_7 LBL_7: %39 = zext i32 %storemerge515.reload to i64 %40 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_6, i64 0, i64 0), i64 %39, i64 %30, i64 %36, i64 %25) store i64 %36, i64* %r8.0.reg2mem store i64 %25, i64* %r9.0.reg2mem br label LBL_8 LBL_8: %r9.0.reload = load i64, i64* %r9.0.reg2mem %r8.0.reload = load i64, i64* %r8.0.reg2mem %41 = add i32 %storemerge515.reload, 1 %42 = load i32, i32* @gv_4, align 4 %43 = zext i32 %42 to i64 %44 = sext i32 %41 to i64 %45 = icmp slt i64 %44, %43 store i64 %44, i64* %.reg2mem store i32 %41, i32* %storemerge515.reg2mem store i64 %r9.0.reload, i64* %r9.114.reg2mem store i64 %r8.0.reload, i64* %r8.113.reg2mem store i64 %r8.0.reload, i64* %r8.1.lcssa.reg2mem store i64 %r9.0.reload, i64* %r9.1.lcssa.reg2mem br i1 %45, label LBL_6, label LBL_9 LBL_9: %r9.1.lcssa.reload = load i64, i64* %r9.1.lcssa.reg2mem %r8.1.lcssa.reload = load i64, i64* %r8.1.lcssa.reg2mem %46 = load i32, i32* @gv_7, align 4 %47 = icmp eq i32 %46, -1 %48 = icmp eq i1 %47, false br i1 %48, label LBL_15, label LBL_10 LBL_10: %49 = load i32, i32* @gv_8, align 4 %50 = icmp eq i32 %49, -1 %51 = icmp eq i1 %50, false br i1 %51, label LBL_15, label LBL_11 LBL_11: br i1 false, label LBL_13, label LBL_12 LBL_12: %52 = call i64 @FUNC() br label LBL_13 LBL_13: %53 = load i32, i32* @gv_9, align 4 %54 = icmp eq i32 %53, 0 br i1 %54, label LBL_15, label LBL_14 LBL_14: %55 = call i64 @FUNC() br label LBL_15 LBL_15: store i64 %r8.1.lcssa.reload, i64* %r8.2.reg2mem br i1 false, label LBL_17, label LBL_16 LBL_16: %56 = call i64 @FUNC() %57 = load i64, i64* @gv_10, align 8 %58 = call i64 @FUNC(i64 %57) %59 = load i64, i64* @gv_11, align 8 %60 = call i64 @FUNC(i64 %59) %61 = load i64, i64* @gv_10, align 8 %62 = call i64 @FUNC(i64 %61) %63 = sub i64 %60, %62 %64 = and i64 %58, 4294967295 %65 = and i64 %63, 4294967295 %66 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_12, i64 0, i64 0), i64 %65, i64 %64, i64 %56, i64 %r9.1.lcssa.reload) store i64 %56, i64* %r8.2.reg2mem br label LBL_17 LBL_17: %r8.2.reload = load i64, i64* %r8.2.reg2mem %67 = load i32, i32* @gv_13, align 4 %68 = icmp eq i32 %67, 0 br i1 %68, label LBL_19, label LBL_18 LBL_18: br i1 true, label LBL_20, label LBL_19 LBL_19: %69 = load i32, i32* @gv_14, align 4 %70 = icmp eq i32 %69, 0 br i1 %70, label LBL_21, label LBL_20 LBL_20: %71 = call i64 @FUNC() br label LBL_21 LBL_21: %72 = load i32, i32* @gv_7, align 4 %73 = load i32, i32* @gv_8, align 4 %74 = and i32 %73, %72 %75 = icmp eq i32 %74, -1 br i1 %75, label LBL_27, label LBL_22 LBL_22: %76 = ptrtoint i32* %sv_0 to i64 %77 = call i32 @wait3(i64 %76, i32 1, %rusage* null) %78 = icmp eq i32 %77, 0 br i1 %78, label LBL_33, label LBL_23 LBL_23: %79 = load i32, i32* @gv_7, align 4 %80 = icmp eq i32 %77, %79 %81 = icmp eq i1 %80, false %82 = load i32, i32* %sv_0, align 4 %83 = zext i32 %82 to i64 br i1 %81, label LBL_25, label LBL_24 LBL_24: %84 = call i64 @FUNC(i64 %83) br label LBL_26 LBL_25: %85 = call i64 @FUNC(i64 %83) br label LBL_26 LBL_26: %86 = call i64 @FUNC() br label LBL_33 LBL_27: %87 = call i32 @time(i32* null) %88 = load i32, i32* @gv_15, align 4 %89 = icmp eq i32 %88, 0 br i1 %89, label LBL_33, label LBL_28 LBL_28: %90 = sext i32 %87 to i64 %91 = load i64, i64* @gv_16, align 8 %92 = load i32, i32* @gv_17, align 4 %93 = load i64, i64* @gv_18, align 8 %94 = sub i64 %90, %93 %95 = zext i32 %88 to i64 store i64 0, i64* %.reg2mem24 store i32 0, i32* %storemerge412.reg2mem br label LBL_29 LBL_29: %storemerge412.reload = load i32, i32* %storemerge412.reg2mem %.reload25 = load i64, i64* %.reg2mem24 %96 = mul i64 %.reload25, 8 %97 = add i64 %96, %91 %98 = inttoptr i64 %97 to i32* %99 = load i32, i32* %98, align 4 %100 = icmp ult i32 %92, %99 br i1 %100, label LBL_32, label LBL_30 LBL_30: %101 = add i64 %97, 4 %102 = inttoptr i64 %101 to i32* %103 = load i32, i32* %102, align 4 %104 = sext i32 %103 to i64 %105 = icmp sgt i64 %94, %104 br i1 %105, label LBL_31, label LBL_32 LBL_31: %106 = zext i32 %103 to i64 %107 = zext i32 %99 to i64 %108 = call i64 @FUNC(i64 3, i8* getelementptr inbounds ([36 x i8], [36 x i8]* @gv_19, i64 0, i64 0), i64 %107, i64 %106, i64 %r8.2.reload, i64 %r9.1.lcssa.reload) %109 = load i64, i64* @gv_20, align 8 %110 = call i64 @FUNC(i64 %109) br label LBL_33 LBL_32: %111 = add i32 %storemerge412.reload, 1 %112 = sext i32 %111 to i64 %113 = icmp slt i64 %112, %95 store i64 %112, i64* %.reg2mem24 store i32 %111, i32* %storemerge412.reg2mem br i1 %113, label LBL_29, label LBL_33 LBL_33: %114 = load i64, i64* @gv_21, align 8 %115 = icmp eq i64 %114, 0 %116 = icmp eq i1 %115, false br i1 %116, label LBL_35, label LBL_34 LBL_34: %117 = call i64 @FUNC() br label LBL_35 LBL_35: %118 = call i64 @FUNC() %119 = trunc i64 %118 to i32 %120 = icmp eq i32 %119, 0 br i1 %120, label LBL_46, label LBL_44 LBL_36: %121 = load i32, i32* @gv_22, align 4 %122 = icmp eq i32 %121, 0 %123 = icmp eq i1 %122, false br i1 %123, label LBL_38, label LBL_37 LBL_37: %124 = call i64 @FUNC() store i64 %124, i64* %storemerge.reg2mem br label LBL_39 LBL_38: %125 = call i64 @FUNC() store i64 %125, i64* %storemerge.reg2mem br label LBL_39 LBL_39: %storemerge.reload = load i64, i64* %storemerge.reg2mem %126 = trunc i64 %storemerge.reload to i32 %127 = icmp eq i32 %126, -1 %128 = icmp eq i1 %127, false br i1 %128, label LBL_43, label LBL_40 LBL_40: br i1 false, label LBL_46, label LBL_41 LBL_41: %129 = call i64 @FUNC() br i1 false, label LBL_42, label LBL_46 LBL_42: br label LBL_46 LBL_43: %130 = load i32, i32* @gv_22, align 4 %131 = icmp eq i32 %130, 0 %132 = icmp slt i32 %130, 0 %133 = icmp eq i1 %132, false %134 = icmp eq i1 %131, false %135 = icmp eq i1 %133, %134 br i1 %135, label LBL_46, label LBL_44 LBL_44: %136 = load i32, i32* @gv_23, align 4 %137 = icmp eq i32 %136, 0 br i1 %137, label LBL_46, label LBL_45 LBL_45: %138 = call i64 @FUNC() %139 = load i128, i128* @gv_24, align 8 %140 = trunc i128 %139 to i64 %141 = icmp ugt i64 %138, %140 br i1 %141, label LBL_36, label LBL_46 LBL_46: br i1 false, label LBL_48, label LBL_47 LBL_47: %142 = call i64 @FUNC() br label LBL_48 LBL_48: ret i64 100 uselistorder i32 %130, { 1, 0 } uselistorder i64 %83, { 1, 0 } uselistorder i64 %r9.1.lcssa.reload, { 1, 0 } uselistorder i64 %36, { 0, 2, 1 } uselistorder i64 %30, { 1, 0 } uselistorder i64 %21, { 0, 2, 1 } uselistorder i32 %storemerge515.reload, { 1, 0 } uselistorder i32* %sv_0, { 1, 0 } uselistorder i64* %.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge515.reg2mem, { 1, 0, 2 } uselistorder i64* %r9.114.reg2mem, { 1, 0 } uselistorder i64* %r8.113.reg2mem, { 1, 0 } uselistorder i64* %.reg2mem24, { 1, 0, 2 } uselistorder i32* %storemerge412.reg2mem, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64* %0, { 2, 1, 0 } uselistorder i64 (i64)* @listLength, { 2, 1, 0 } uselistorder i64 ()* @zmalloc_used_memory, { 1, 2, 0 } uselistorder i64 (i64)* @dictSize, { 1, 0 } uselistorder i64 (i64, i8*, i64, i64, i64, i64)* @redisLog, { 3, 2, 1, 0 } uselistorder i1 false, { 2, 6, 5, 0, 1, 7, 8, 9, 10, 3, 4, 11, 12, 13 } uselistorder label LBL_46, { 0, 2, 1, 4, 5, 3, 6 } uselistorder label LBL_44, { 1, 0 } uselistorder label LBL_33, { 0, 4, 1, 3, 2 } uselistorder label LBL_29, { 1, 0 } uselistorder label LBL_6, { 1, 0 } }
1
CompRealVul
ip_find_8806
ip_find
define i64 @FUNC(i64* %arg1, i64* %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg2 to i64 %3 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 store i64 %2, i64* %sv_0, align 8 %4 = call i64 @FUNC(i64* nonnull @gv_0) %5 = add i64 %2, 12 %6 = inttoptr i64 %5 to i8* %7 = load i8, i8* %6, align 1 %8 = zext i8 %7 to i64 %9 = add i64 %2, 8 %10 = inttoptr i64 %9 to i32* %11 = load i32, i32* %10, align 4 %12 = add i64 %2, 4 %13 = inttoptr i64 %12 to i32* %14 = load i32, i32* %13, align 4 %15 = and i64 %1, 4294967295 %16 = call i64 @FUNC(i64 %15, i32 %14, i32 %11, i64 %8) %17 = trunc i64 %16 to i32 %18 = call i64 @FUNC(i64 %3, i64* nonnull @gv_0, i64* nonnull %sv_0, i32 %17) %19 = icmp eq i64 %18, 0 br i1 %19, label LBL_1, label LBL_2 LBL_1: %20 = call i64 @FUNC(i8* getelementptr inbounds ([41 x i8], [41 x i8]* @gv_1, i64 0, i64 0)) br label LBL_2 LBL_2: ret i64 %18 uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
packet_getname_4185
packet_getname
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %.pre-phi3.reg2mem = alloca i8* %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg4 to i32 %2 = call i64 @FUNC(i64 %0) %3 = icmp eq i32 %1, 0 store i64 95, i64* %storemerge.reg2mem br i1 %3, label LBL_1, label LBL_5 LBL_1: %4 = ptrtoint i64* %arg2 to i64 %5 = inttoptr i64 %2 to i32* %6 = bitcast i64* %arg2 to i16* store i16 17, i16* %6, align 2 %7 = load i32, i32* %5, align 4 %8 = add i64 %4, 4 %9 = inttoptr i64 %8 to i32* store i32 %7, i32* %9, align 4 %10 = add i64 %2, 4 %11 = inttoptr i64 %10 to i32* %12 = load i32, i32* %11, align 4 %13 = trunc i32 %12 to i16 %14 = add i64 %4, 8 %15 = inttoptr i64 %14 to i16* store i16 %13, i16* %15, align 2 %16 = add i64 %4, 10 %17 = inttoptr i64 %16 to i8* store i8 0, i8* %17, align 1 %18 = call i64 @FUNC() %19 = load i32, i32* %5, align 4 %20 = call i64 @FUNC(i64 %0) %21 = zext i32 %19 to i64 %22 = and i64 %20, 4294967295 %23 = call i64 @FUNC(i64 %22, i64 %21) %24 = icmp eq i64 %23, 0 br i1 %24, label LBL_3, label LBL_2 LBL_2: %25 = inttoptr i64 %23 to i32* %26 = load i32, i32* %25, align 4 %27 = trunc i32 %26 to i16 %28 = add i64 %4, 12 %29 = inttoptr i64 %28 to i16* store i16 %27, i16* %29, align 2 %30 = add i64 %23, 4 %31 = inttoptr i64 %30 to i32* %32 = load i32, i32* %31, align 4 %33 = trunc i32 %32 to i8 %34 = add i64 %4, 14 %35 = inttoptr i64 %34 to i8* store i8 %33, i8* %35, align 1 %36 = load i32, i32* %31, align 4 %37 = add i64 %23, 8 %38 = add i64 %4, 15 %39 = inttoptr i64 %38 to i64* %40 = inttoptr i64 %37 to i64* %41 = call i64* @memcpy(i64* %39, i64* %40, i32 %36) store i8* %35, i8** %.pre-phi3.reg2mem br label LBL_4 LBL_3: %42 = add i64 %4, 12 %43 = inttoptr i64 %42 to i16* store i16 0, i16* %43, align 2 %44 = add i64 %4, 14 %45 = inttoptr i64 %44 to i8* store i8 0, i8* %45, align 1 store i8* %45, i8** %.pre-phi3.reg2mem br label LBL_4 LBL_4: %.pre-phi3.reload = load i8*, i8** %.pre-phi3.reg2mem %46 = call i64 @FUNC() %47 = load i8, i8* %.pre-phi3.reload, align 1 %48 = zext i8 %47 to i32 %49 = add nuw nsw i32 %48, 15 %50 = bitcast i64* %arg3 to i32* store i32 %49, i32* %50, align 4 store i64 0, i64* %storemerge.reg2mem br label LBL_5 LBL_5: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %4, { 3, 4, 0, 1, 2, 5, 6, 7 } uselistorder i8** %.pre-phi3.reg2mem, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_5, { 1, 0 } }
0
CompRealVul
av_tree_insert_2598
av_tree_insert
define i64 @FUNC(i64 %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rcx.0.reg2mem = alloca i64 %.reg2mem = alloca i32 %storemerge.reg2mem = alloca i32 %sv_0.0.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %sv_2 = alloca i64, align 8 %sv_3 = alloca i64, align 8 %0 = icmp eq i64 %arg1, 0 br i1 %0, label LBL_17, label LBL_1 LBL_1: %1 = trunc i64 %arg1 to i32 %sext = mul i64 %arg1, 4294967296 %2 = ashr exact i64 %sext, 32 %3 = icmp eq i32 %1, 0 %4 = icmp eq i1 %3, false store i64 %arg2, i64* %sv_1.0.reg2mem store i64 %2, i64* %sv_0.0.reg2mem br i1 %4, label LBL_7, label LBL_2 LBL_2: %5 = icmp eq i64 %arg3, 0 store i64 %arg1, i64* %rax.0.reg2mem br i1 %5, label LBL_3, label LBL_18 LBL_3: %6 = add i64 %arg1, 8 %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = icmp eq i64 %8, 0 %10 = icmp eq i1 %9, false br i1 %10, label LBL_5, label LBL_4 LBL_4: %11 = add i64 %arg1, 16 %12 = inttoptr i64 %11 to i64* %13 = load i64, i64* %12, align 8 %14 = icmp eq i64 %13, 0 br i1 %14, label LBL_6, label LBL_5 LBL_5: %15 = ptrtoint i64* %sv_3 to i64 %16 = zext i1 %9 to i64 %17 = mul i64 %16, 8 %18 = add i64 %17, %6 %19 = inttoptr i64 %18 to i64* %20 = load i64, i64* %19, align 8 %21 = call i64 @FUNC(i64 %20, i64 %arg2, i64 0, i64* nonnull %sv_2) %22 = add i64 %15, -64 %23 = add i64 %22, %17 %24 = inttoptr i64 %23 to i64* %25 = load i64, i64* %24, align 8 %26 = inttoptr i64 %arg1 to i64* store i64 %25, i64* %26, align 8 %27 = sext i1 %9 to i64 store i64 %20, i64* %sv_1.0.reg2mem store i64 %27, i64* %sv_0.0.reg2mem br label LBL_7 LBL_6: %28 = inttoptr i64 %arg4 to i64* store i64 %arg1, i64* %28, align 8 %29 = inttoptr i64 %arg1 to i64* store i64 0, i64* %29, align 8 store i64 0, i64* %rax.0.reg2mem br label LBL_18 LBL_7: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %30 = udiv i64 %sv_0.0.reload, 268435456 %31 = and i64 %30, 8 %32 = add i64 %31, %arg1 %33 = add i64 %32, 8 %34 = call i64 @FUNC(i64 %33, i64 %sv_1.0.reload, i64 %arg3, i64 %arg4) %35 = icmp eq i64 %34, 0 %36 = icmp eq i1 %35, false br i1 %36, label LBL_16, label LBL_8 LBL_8: %37 = trunc i64 %sv_0.0.reload to i32 %38 = icmp slt i32 %37, 0 %39 = icmp eq i64 %arg4, 0 %40 = icmp eq i1 %39, false %41 = icmp ne i1 %38, %40 %42 = zext i1 %41 to i32 %43 = add i64 %arg1, 24 %44 = inttoptr i64 %43 to i32* %45 = load i32, i32* %44, align 4 %46 = mul i32 %42, 2 %47 = add nsw i32 %46, -1 %48 = add i32 %47, %45 store i32 %48, i32* %44, align 4 %49 = urem i32 %48, 2 %50 = icmp eq i32 %49, 0 %51 = icmp eq i1 %50, false %52 = icmp eq i32 %48, 0 %or.cond = or i1 %52, %51 br i1 %or.cond, label LBL_8.LBL_15_crit_edge, label LBL_10 LBL_9: %.pre = add i64 %32, 32 %.pre2 = inttoptr i64 %.pre to i32* %.pre4 = load i32, i32* %.pre2, align 4 store i32 %.pre4, i32* %.reg2mem store i64 %arg4, i64* %rcx.0.reg2mem br label LBL_15 LBL_10: %53 = mul i32 %42, 8 %54 = zext i32 %53 to i64 %55 = add i64 %arg1, 8 %56 = add i64 %55, %54 %57 = inttoptr i64 %56 to i64* %58 = load i64, i64* %57, align 8 %59 = add i64 %58, 24 %60 = inttoptr i64 %59 to i32* %61 = load i32, i32* %60, align 4 %62 = mul i32 %61, 2 %63 = sub i32 0, %48 %64 = icmp eq i32 %62, %63 %65 = icmp eq i1 %64, false br i1 %65, label LBL_12, label LBL_11 LBL_11: %66 = xor i32 %53, 8 %67 = zext i32 %66 to i64 %68 = add nuw nsw i64 %67, 8 %69 = add i64 %58, %68 %70 = inttoptr i64 %69 to i64* %71 = load i64, i64* %70, align 8 %72 = inttoptr i64 %arg1 to i64* store i64 %71, i64* %72, align 8 %73 = load i64, i64* %57, align 8 %74 = add i64 %32, 16 %75 = add i64 %74, %54 %76 = inttoptr i64 %75 to i64* %77 = load i64, i64* %76, align 8 %78 = add i64 %73, %68 %79 = inttoptr i64 %78 to i64* store i64 %77, i64* %79, align 8 %80 = load i64, i64* %57, align 8 store i64 %80, i64* %76, align 8 %81 = add i64 %74, %67 %82 = inttoptr i64 %81 to i64* %83 = load i64, i64* %82, align 8 store i64 %83, i64* %57, align 8 store i64 %arg1, i64* %82, align 8 %84 = add i64 %32, 32 %85 = inttoptr i64 %84 to i32* %86 = load i32, i32* %85, align 4 %87 = icmp eq i32 %86, 0 %88 = icmp slt i32 %86, 0 %89 = icmp eq i1 %88, false %90 = icmp eq i1 %87, false %91 = icmp eq i1 %89, %90 %92 = inttoptr i64 %74 to i64* %93 = load i64, i64* %92, align 8 %94 = sext i1 %91 to i32 %95 = add i64 %93, 24 %96 = inttoptr i64 %95 to i32* store i32 %94, i32* %96, align 4 %97 = load i32, i32* %85, align 4 %98 = icmp slt i32 %97, 0 %99 = zext i1 %98 to i32 %100 = add i64 %32, 24 %101 = inttoptr i64 %100 to i64* %102 = load i64, i64* %101, align 8 %103 = add i64 %102, 24 %104 = inttoptr i64 %103 to i32* store i32 %99, i32* %104, align 4 store i32 0, i32* %85, align 4 store i32 0, i32* %.reg2mem store i64 %arg1, i64* %rcx.0.reg2mem br label LBL_15 LBL_12: %105 = inttoptr i64 %arg1 to i64* store i64 %58, i64* %105, align 8 %106 = load i64, i64* %57, align 8 %107 = xor i32 %53, 8 %108 = zext i32 %107 to i64 %109 = add nuw nsw i64 %108, 8 %110 = add i64 %109, %106 %111 = inttoptr i64 %110 to i64* %112 = load i64, i64* %111, align 8 store i64 %112, i64* %57, align 8 %113 = add i64 %32, 16 %114 = add i64 %113, %108 %115 = inttoptr i64 %114 to i64* store i64 %arg1, i64* %115, align 8 %116 = add i64 %32, 32 %117 = inttoptr i64 %116 to i32* %118 = load i32, i32* %117, align 4 %119 = icmp eq i32 %118, 0 store i32 0, i32* %storemerge.reg2mem br i1 %119, label LBL_13, label LBL_14 LBL_13: %120 = load i32, i32* %44, align 4 %121 = ashr i32 %120, 1 store i32 %121, i32* %storemerge.reg2mem br label LBL_14 LBL_14: %storemerge.reload = load i32, i32* %storemerge.reg2mem store i32 %storemerge.reload, i32* %44, align 4 %122 = sub nsw i32 0, %storemerge.reload store i32 %122, i32* %117, align 4 store i32 %122, i32* %.reg2mem store i64 %arg1, i64* %rcx.0.reg2mem br label LBL_15 LBL_15: %rcx.0.reload = load i64, i64* %rcx.0.reg2mem %.reload = load i32, i32* %.reg2mem %123 = icmp eq i32 %.reload, 0 %124 = icmp eq i64 %rcx.0.reload, 0 %125 = icmp eq i1 %124, false %126 = icmp eq i1 %125, %123 store i64 %sv_1.0.reload, i64* %rax.0.reg2mem br i1 %126, label LBL_16, label LBL_18 LBL_16: store i64 %34, i64* %rax.0.reg2mem br label LBL_18 LBL_17: call void @llvm.trap() unreachable LBL_18: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %storemerge.reload, { 1, 0 } uselistorder i64 %108, { 1, 0 } uselistorder i32 %86, { 1, 0 } uselistorder i64 %74, { 2, 0, 1 } uselistorder i64 %58, { 1, 0, 2 } uselistorder i64* %57, { 4, 3, 0, 1, 2, 5 } uselistorder i32 %53, { 1, 2, 0 } uselistorder i32 %48, { 1, 2, 0, 3 } uselistorder i32* %44, { 1, 0, 2, 3 } uselistorder i32 %42, { 1, 0 } uselistorder i64 %32, { 1, 2, 3, 4, 5, 0, 6 } uselistorder i1 %9, { 1, 0, 2 } uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32* %.reg2mem, { 0, 2, 1, 3 } uselistorder i64* %rcx.0.reg2mem, { 0, 2, 1, 3 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 1, 3, 2 } uselistorder i32 8, { 1, 2, 0 } uselistorder i32 2, { 0, 2, 1 } uselistorder i64 24, { 1, 0, 2, 3, 4 } uselistorder i64 8, { 3, 4, 1, 5, 2, 0, 6 } uselistorder i1 false, { 1, 2, 0, 3, 4, 5, 6, 7, 8 } uselistorder i32 0, { 6, 7, 1, 8, 0, 9, 2, 10, 11, 5, 4, 12, 3, 13 } uselistorder i64 32, { 1, 2, 0, 3 } uselistorder i64 %arg4, { 0, 2, 3, 1 } uselistorder i64 %arg3, { 1, 0 } uselistorder i64 %arg2, { 1, 0 } uselistorder i64 %arg1, { 2, 13, 14, 1, 11, 12, 5, 15, 4, 6, 10, 7, 9, 8, 0, 3, 16, 17 } uselistorder label LBL_18, { 2, 0, 3, 1 } uselistorder label LBL_15, { 1, 2, 0 } uselistorder label LBL_14, { 1, 0 } }
0
CompRealVul
init_mi_uptime_4246
init_mi_uptime
define i64 @FUNC() local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = load i8*, i8** @gv_0, align 8 %1 = icmp eq i8* %0, null store i64 0, i64* %rax.0.reg2mem br i1 %1, label LBL_1, label LBL_4 LBL_1: %2 = call i32 @time(i32* bitcast (i32** @gv_1 to i32*)) %3 = call i8* @ctime(i32* bitcast (i32** @gv_1 to i32*)) %4 = call i32 @strlen(i8* %3) %5 = add i32 %4, -1 store i32 %5, i32* @gv_2, align 4 %6 = sext i32 %5 to i64 %7 = call i64 @FUNC(i64 %6) %8 = inttoptr i64 %7 to i8* store i8* %8, i8** @gv_0, align 8 %9 = icmp eq i64 %7, 0 %10 = icmp eq i1 %9, false br i1 %10, label LBL_3, label LBL_2 LBL_2: %11 = call i64 @FUNC(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0)) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_4 LBL_3: %12 = load i32, i32* @gv_2, align 4 %13 = inttoptr i64 %7 to i64* %14 = bitcast i8* %3 to i64* %15 = call i64* @memcpy(i64* %13, i64* %14, i32 %12) store i64 0, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder i32* @gv_2, { 1, 0 } uselistorder label LBL_4, { 1, 2, 0 } }
0
CompRealVul
follow_down_10438
follow_down
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %.in.reg2mem = alloca i64 %.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = and i64 %0, 4294967295 %2 = call i64 @FUNC(i64 %1) %3 = urem i64 %2, 2 %4 = call i64 @FUNC(i64 %3) %5 = trunc i64 %4 to i32 %6 = icmp eq i32 %5, 0 %7 = icmp eq i1 %6, false store i64 0, i64* %rax.0.reg2mem br i1 %7, label LBL_1, label LBL_8 LBL_1: %8 = trunc i64 %0 to i32 %9 = icmp slt i32 %8, 0 %10 = icmp eq i1 %9, false %11 = add i64 %0, 8 %12 = inttoptr i64 %11 to i64* store i64 %3, i64* %.reg2mem store i64 %2, i64* %.in.reg2mem br label LBL_2 LBL_2: %.in.reload = load i64, i64* %.in.reg2mem %13 = trunc i64 %.in.reload to i32 %14 = and i32 %13, 2 %15 = icmp eq i32 %14, 0 br i1 %15, label LBL_5, label LBL_3 LBL_3: %.reload = load i64, i64* %.reg2mem %16 = or i64 %.reload, 8 %17 = inttoptr i64 %16 to i64* %18 = load i64, i64* %17, align 8 %19 = icmp eq i64 %18, 0 %20 = zext i1 %19 to i64 %21 = call i64 @FUNC(i64 %20) %22 = select i1 %19, i64 9, i64 8 %23 = inttoptr i64 %22 to i64* %24 = load i64, i64* %23, align 8 %25 = inttoptr i64 %24 to i64* %26 = load i64, i64* %25, align 8 %27 = icmp eq i64 %26, 0 %28 = zext i1 %27 to i64 %29 = call i64 @FUNC(i64 %28) br i1 %10, label LBL_5, label LBL_4 LBL_4: %30 = icmp eq i32 %8, -21 %. = select i1 %30, i64 0, i64 %1 store i64 %., i64* %rax.0.reg2mem br label LBL_8 LBL_5: %31 = and i32 %13, 4 %32 = icmp eq i32 %31, 0 store i64 0, i64* %rax.0.reg2mem br i1 %32, label LBL_8, label LBL_6 LBL_6: %33 = call i64 @FUNC(i64 %0) %34 = icmp eq i64 %33, 0 store i64 0, i64* %rax.0.reg2mem br i1 %34, label LBL_8, label LBL_7 LBL_7: %35 = call i64 @FUNC(i64 %0) %36 = load i64, i64* %12, align 8 %37 = call i64 @FUNC(i64 %36) store i64 %33, i64* %12, align 8 %38 = inttoptr i64 %33 to i64* %39 = load i64, i64* %38, align 8 %40 = call i64 @FUNC(i64 %39) store i64 %40, i64* %arg1, align 8 %41 = and i64 %39, 4294967295 %42 = call i64 @FUNC(i64 %41) %43 = urem i64 %42, 2 %44 = call i64 @FUNC(i64 %43) %45 = trunc i64 %44 to i32 %46 = icmp eq i32 %45, 0 %47 = icmp eq i1 %46, false store i64 %43, i64* %.reg2mem store i64 %42, i64* %.in.reg2mem store i64 0, i64* %rax.0.reg2mem br i1 %47, label LBL_2, label LBL_8 LBL_8: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %8, { 1, 0 } uselistorder i64 %0, { 1, 4, 3, 2, 0 } uselistorder i64* %.reg2mem, { 1, 0, 2 } uselistorder i64* %.in.reg2mem, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2, 5, 4 } uselistorder i64 (i64)* @BUG_ON, { 1, 0 } uselistorder i64 8, { 1, 0, 2 } uselistorder i1 false, { 2, 1, 0 } uselistorder i32 0, { 4, 1, 3, 2, 0, 5 } uselistorder i64 (i64)* @unlikely, { 1, 0 } uselistorder i64 (i64)* @ACCESS_ONCE, { 1, 0 } uselistorder label LBL_8, { 2, 0, 1, 4, 3 } uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
scm_fp_copy_6200
scm_fp_copy
define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %sv_0.01.reg2mem = alloca i64 %storemerge2.reg2mem = alloca i32 %sv_1.0.reg2mem = alloca i64 %.pre-phi.reg2mem = alloca i32* %.pre-phi6.reg2mem = alloca i32* %1 = load i64, i64* %0 %2 = ptrtoint i32* %arg1 to i64 %3 = call i64 @FUNC(i64 %2) %sext = mul i64 %1, 4294967296 %4 = ashr exact i64 %sext, 32 %5 = add nsw i64 %4, 17179869176 %6 = udiv i64 %5, 4 %7 = trunc i64 %6 to i32 %8 = icmp eq i32 %7, 0 %9 = icmp slt i32 %7, 0 %10 = icmp eq i1 %9, false %11 = icmp eq i1 %8, false %12 = icmp eq i1 %10, %11 store i64 0, i64* %rax.0.reg2mem br i1 %12, label LBL_1, label LBL_15 LBL_1: %13 = icmp slt i32 %7, 257 store i64 4294967274, i64* %rax.0.reg2mem br i1 %13, label LBL_2, label LBL_15 LBL_2: %14 = icmp eq i64* %arg2, null %15 = icmp eq i1 %14, false br i1 %15, label LBL_2.LBL_6_crit_edge, label LBL_4 LBL_3: %16 = ptrtoint i64* %arg2 to i64 %.pre = bitcast i64* %arg2 to i32* %.pre3 = add i64 %16, 4 %.pre5 = inttoptr i64 %.pre3 to i32* store i32* %.pre5, i32** %.pre-phi6.reg2mem store i32* %.pre, i32** %.pre-phi.reg2mem store i64 %16, i64* %sv_1.0.reg2mem br label LBL_6 LBL_4: %17 = call i64 @FUNC(i64 2064, i64 0) %18 = icmp eq i64 %17, 0 %19 = icmp eq i1 %18, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %19, label LBL_5, label LBL_15 LBL_5: store i64 %17, i64* %arg2, align 8 %20 = inttoptr i64 %17 to i32* store i32 0, i32* %20, align 4 %21 = add i64 %17, 4 %22 = inttoptr i64 %21 to i32* store i32 256, i32* %22, align 4 %23 = add i64 %17, 8 %24 = inttoptr i64 %23 to i64* store i64 0, i64* %24, align 8 store i32* %22, i32** %.pre-phi6.reg2mem store i32* %20, i32** %.pre-phi.reg2mem store i64 %17, i64* %sv_1.0.reg2mem br label LBL_6 LBL_6: %.pre-phi.reload = load i32*, i32** %.pre-phi.reg2mem %.pre-phi6.reload = load i32*, i32** %.pre-phi6.reg2mem %25 = load i32, i32* %.pre-phi.reload, align 4 %26 = add i32 %25, %7 %27 = load i32, i32* %.pre-phi6.reload, align 4 %28 = icmp ugt i32 %26, %27 store i64 4294967274, i64* %rax.0.reg2mem br i1 %28, label LBL_15, label LBL_7 LBL_7: %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %29 = icmp sgt i32 %7, 0 br i1 %29, label LBL_8, label LBL_12 LBL_8: %30 = add i64 %sv_1.0.reload, 16 %31 = sext i32 %25 to i64 %32 = mul i64 %31, 8 %33 = add i64 %30, %32 store i32 0, i32* %storemerge2.reg2mem store i64 %33, i64* %sv_0.01.reg2mem br label LBL_9 LBL_9: %storemerge2.reload = load i32, i32* %storemerge2.reg2mem %34 = sext i32 %storemerge2.reload to i64 %35 = mul i64 %34, 4 %36 = add i64 %35, %3 %37 = inttoptr i64 %36 to i32* %38 = load i32, i32* %37, align 4 %39 = icmp slt i32 %38, 0 store i64 4294967287, i64* %rax.0.reg2mem br i1 %39, label LBL_15, label LBL_10 LBL_10: %40 = zext i32 %38 to i64 %41 = call i64 @FUNC(i64 %40) %42 = icmp eq i64 %41, 0 %43 = icmp eq i1 %42, false store i64 4294967287, i64* %rax.0.reg2mem br i1 %43, label LBL_11, label LBL_15 LBL_11: %sv_0.01.reload = load i64, i64* %sv_0.01.reg2mem %44 = add i64 %sv_0.01.reload, 8 %45 = inttoptr i64 %sv_0.01.reload to i64* store i64 %41, i64* %45, align 8 %46 = load i32, i32* %.pre-phi.reload, align 4 %47 = add i32 %46, 1 store i32 %47, i32* %.pre-phi.reload, align 4 %48 = add nuw i32 %storemerge2.reload, 1 %49 = icmp slt i32 %48, %7 store i32 %48, i32* %storemerge2.reg2mem store i64 %44, i64* %sv_0.01.reg2mem br i1 %49, label LBL_9, label LBL_12 LBL_12: %50 = add i64 %sv_1.0.reload, 8 %51 = inttoptr i64 %50 to i64* %52 = load i64, i64* %51, align 8 %53 = icmp eq i64 %52, 0 %54 = icmp eq i1 %53, false br i1 %54, label LBL_14, label LBL_13 LBL_13: %55 = call i64 @FUNC() %56 = call i64 @FUNC(i64 %55) store i64 %56, i64* %51, align 8 br label LBL_14 LBL_14: %57 = and i64 %6, 4294967295 store i64 %57, i64* %rax.0.reg2mem br label LBL_15 LBL_15: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %25, { 1, 0 } uselistorder i32* %.pre-phi.reload, { 1, 0, 2 } uselistorder i32 %7, { 2, 1, 0, 3, 5, 4 } uselistorder i64 %6, { 1, 0 } uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.01.reg2mem, { 2, 0, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 7, 2, 1, 3, 4, 5, 6 } uselistorder i64 4294967287, { 1, 0 } uselistorder i1 false, { 2, 1, 3, 4, 5, 0 } uselistorder i64 4, { 0, 3, 2, 1 } uselistorder i64* %arg2, { 1, 0, 3, 2 } uselistorder label LBL_15, { 6, 1, 0, 2, 3, 4, 5 } uselistorder label LBL_9, { 1, 0 } uselistorder label LBL_6, { 1, 0 } }
0
CompRealVul
stringin_6355
stringin
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge3.lcssa.reg2mem = alloca i32 %storemerge35.reg2mem = alloca i32 %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg2 to i32 %2 = icmp sgt i32 %1, 0 store i32 0, i32* %storemerge35.reg2mem store i32 0, i32* %storemerge3.lcssa.reg2mem br i1 %2, label LBL_1, label LBL_4 LBL_1: %storemerge35.reload = load i32, i32* %storemerge35.reg2mem %3 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %4 = sext i32 %storemerge35.reload to i64 %5 = add i64 %4, %0 %6 = inttoptr i64 %5 to i64* %7 = call i32 @fread(i64* %6, i32 1, i32 1, %_IO_FILE* %3) %8 = icmp eq i32 %7, 1 store i64 4294967295, i64* %storemerge.reg2mem br i1 %8, label LBL_2, label LBL_5 LBL_2: %9 = inttoptr i64 %5 to i8* %10 = load i8, i8* %9, align 1 %11 = icmp eq i8 %10, 0 store i32 %storemerge35.reload, i32* %storemerge3.lcssa.reg2mem br i1 %11, label LBL_4, label LBL_3 LBL_3: %12 = add nuw i32 %storemerge35.reload, 1 %13 = icmp slt i32 %12, %1 store i32 %12, i32* %storemerge35.reg2mem store i32 %12, i32* %storemerge3.lcssa.reg2mem br i1 %13, label LBL_1, label LBL_4 LBL_4: %sext = mul i64 %arg2, 4294967296 %storemerge3.lcssa.reload = load i32, i32* %storemerge3.lcssa.reg2mem %14 = ashr exact i64 %sext, 32 %15 = add i64 %0, -1 %16 = add i64 %15, %14 %17 = inttoptr i64 %16 to i8* store i8 0, i8* %17, align 1 %18 = zext i32 %storemerge3.lcssa.reload to i64 store i64 %18, i64* %storemerge.reg2mem br label LBL_5 LBL_5: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32 %storemerge35.reload, { 1, 0, 2 } uselistorder i32 %1, { 1, 0 } uselistorder i64 %0, { 1, 0 } uselistorder i32* %storemerge35.reg2mem, { 2, 0, 1 } uselistorder i32* %storemerge3.lcssa.reg2mem, { 0, 2, 1, 3 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i8 0, { 1, 2, 0 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
0
CompRealVul
prep_compound_page_18850
prep_compound_page
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %storemerge1.lcssa.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %0 = trunc i64 %arg2 to i32 %1 = urem i32 %0, 32 %2 = shl i32 1, %1 %3 = call i64 @FUNC(i64 %arg1, i64 4198725) %4 = call i64 @FUNC(i64 %arg1, i64 %arg2) %5 = call i64 @FUNC(i64 %arg1) %6 = icmp sgt i32 %2, 1 store i64 1, i64* %storemerge1.lcssa.reg2mem br i1 %6, label LBL_1, label LBL_3 LBL_1: %wide.trip.count = zext i32 %2 to i64 store i64 1, i64* %indvars.iv.reg2mem br label LBL_2 LBL_2: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %7 = mul i64 %indvars.iv.reload, 8 %8 = add i64 %7, %arg1 %9 = call i64 @FUNC(i64 %8) %10 = inttoptr i64 %8 to i64* store i64 %arg1, i64* %10, align 8 %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %exitcond = icmp eq i64 %indvars.iv.next, %wide.trip.count store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem store i64 %wide.trip.count, i64* %storemerge1.lcssa.reg2mem br i1 %exitcond, label LBL_3, label LBL_2 LBL_3: %storemerge1.lcssa.reload = load i64, i64* %storemerge1.lcssa.reg2mem ret i64 %storemerge1.lcssa.reload uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 } uselistorder i64 %arg1, { 1, 0, 4, 3, 2 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
ghash_flush_8607
ghash_flush
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %1 = add i64 %0, 16 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = icmp eq i32 %3, 0 br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = ptrtoint i64* %arg1 to i64 %6 = sub i32 16, %3 %7 = sext i32 %6 to i64 %8 = add i64 %7, %0 %9 = inttoptr i64 %8 to i64* %10 = call i64* @memset(i64* %9, i32 0, i32 %3) %11 = call i64 @FUNC(i64 1, i64 %5, i64 %0, i64 16) %12 = trunc i64 %11 to i32 %13 = icmp eq i32 %12, 16 store i64 1, i64* %storemerge.reg2mem br i1 %13, label LBL_2, label LBL_3 LBL_2: store i32 0, i32* %2, align 4 store i64 0, i64* %storemerge.reg2mem br label LBL_3 LBL_3: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32 %3, { 1, 0, 2 } uselistorder i64 %0, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_3, { 1, 0 } }
0
CompRealVul
wolfSSH_SFTP_RecvSetSTAT_13356
wolfSSH_SFTP_RecvSetSTAT
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3, i32 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi.1.reg2mem = alloca i64 %sv_0.1.reg2mem = alloca i8 %sv_1.1.reg2mem = alloca i64 %sv_2.2.reg2mem = alloca i64 %sv_3 = alloca i32, align 4 %sv_4 = alloca i64, align 8 %sv_5 = alloca i64, align 8 %sv_6 = alloca i64, align 8 %sv_7 = alloca i32, align 4 %sv_8 = alloca i64, align 8 %sv_9 = alloca i32, align 4 store i32 0, i32* %sv_9, align 4 store i64 0, i64* %sv_8, align 8 store i32 0, i32* %sv_7, align 4 store i64 7598826294347064659, i64* %sv_6, align 8 store i64 8367799623835807317, i64* %sv_5, align 8 store i64 8367799623835807317, i64* %sv_4, align 8 %0 = icmp eq i64* %arg1, null %1 = icmp eq i1 %0, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %1, label LBL_1, label LBL_12 LBL_1: %2 = ptrtoint i64* %arg3 to i64 %3 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_0, i64 0, i64 0)) %4 = bitcast i32* %sv_3 to i64* %5 = call i64 @FUNC(i64 %2, i64* nonnull %4) store i32 4, i32* %sv_9, align 4 %6 = load i32, i32* %sv_3, align 4 %7 = add i32 %6, 4 %8 = icmp ugt i32 %7, %arg4 %9 = icmp eq i1 %8, false store i64 4294967294, i64* %rax.0.reg2mem br i1 %9, label LBL_2, label LBL_12 LBL_2: %10 = add i32 %6, 1 %11 = zext i32 %10 to i64 %12 = call i64 @FUNC(i64 %11, i64 %2, i64 0) %13 = icmp eq i64 %12, 0 %14 = icmp eq i1 %13, false store i64 4294967293, i64* %rax.0.reg2mem br i1 %14, label LBL_3, label LBL_12 LBL_3: %15 = ptrtoint i64* %arg1 to i64 %16 = ptrtoint i64* %sv_6 to i64 %17 = load i32, i32* %sv_3, align 4 %18 = zext i32 %17 to i64 %19 = add i64 %2, 4 %20 = call i64 @FUNC(i64 %12, i64 %19, i64 %18) %21 = load i32, i32* %sv_3, align 4 %22 = add i32 %21, 4 store i32 %22, i32* %sv_9, align 4 %23 = zext i32 %21 to i64 %24 = add i64 %12, %23 %25 = inttoptr i64 %24 to i8* store i8 0, i8* %25, align 1 %26 = call i64 @FUNC(i64 %15, i64 %12) %27 = trunc i64 %26 to i32 %28 = icmp slt i32 %27, 0 %29 = icmp eq i1 %28, false %30 = icmp eq i1 %29, false store i64 4294967292, i64* %sv_2.2.reg2mem store i64 %16, i64* %sv_1.1.reg2mem store i8 0, i8* %sv_0.1.reg2mem store i64 %15, i64* %rdi.1.reg2mem br i1 %30, label LBL_7, label LBL_4 LBL_4: %31 = zext i32 %arg4 to i64 %32 = call i64 @FUNC(i64 %15, i64* nonnull %sv_8, i64 %2, i32* nonnull %sv_9, i64 %31) %33 = trunc i64 %32 to i32 %34 = icmp eq i32 %33, 0 %35 = ptrtoint i64* %sv_4 to i64 %not. = icmp ne i1 %34, true %spec.select6 = zext i1 %not. to i8 %36 = icmp eq i1 %34, false store i64 4294967291, i64* %sv_2.2.reg2mem store i64 %35, i64* %sv_1.1.reg2mem store i8 %spec.select6, i8* %sv_0.1.reg2mem store i64 %15, i64* %rdi.1.reg2mem br i1 %36, label LBL_7, label LBL_5 LBL_5: %37 = call i64 @FUNC(i64 %15, i64 %12, i64* nonnull %sv_8) %38 = trunc i64 %37 to i32 %39 = icmp eq i32 %38, 0 store i64 0, i64* %sv_2.2.reg2mem store i64 %16, i64* %sv_1.1.reg2mem store i8 %spec.select6, i8* %sv_0.1.reg2mem store i64 %15, i64* %rdi.1.reg2mem br i1 %39, label LBL_7, label LBL_6 LBL_6: %40 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([47 x i8], [47 x i8]* @gv_1, i64 0, i64 0)) %41 = ptrtoint i64* %sv_5 to i64 store i64 4294967291, i64* %sv_2.2.reg2mem store i64 %41, i64* %sv_1.1.reg2mem store i8 1, i8* %sv_0.1.reg2mem store i64 1, i64* %rdi.1.reg2mem br label LBL_7 LBL_7: %rdi.1.reload = load i64, i64* %rdi.1.reg2mem %sv_0.1.reload = load i8, i8* %sv_0.1.reg2mem %sv_1.1.reload = load i64, i64* %sv_1.1.reg2mem %42 = call i64 @FUNC(i64 %12, i64 %rdi.1.reload, i64 0) %43 = trunc i64 %arg2 to i32 %44 = call i64 @FUNC(i64 %15, i8 %sv_0.1.reload, i32 %43, i64 %sv_1.1.reload, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i64 0, i32* nonnull %sv_7) %45 = trunc i64 %44 to i32 %46 = icmp eq i32 %45, -6 store i64 4294967292, i64* %rax.0.reg2mem br i1 %46, label LBL_8, label LBL_12 LBL_8: %47 = load i32, i32* %sv_7, align 4 %48 = zext i32 %47 to i64 %49 = call i64 @FUNC(i64 %48, i64 %15, i64 0) store i64 %49, i64* %sv_8, align 8 %50 = icmp eq i64 %49, 0 %51 = icmp eq i1 %50, false store i64 4294967293, i64* %rax.0.reg2mem br i1 %51, label LBL_9, label LBL_12 LBL_9: %52 = call i64 @FUNC(i64 %15, i8 %sv_0.1.reload, i32 %43, i64 %sv_1.1.reload, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i64 %49, i32* nonnull %sv_7) %53 = trunc i64 %52 to i32 %54 = icmp eq i32 %53, 0 br i1 %54, label LBL_11, label LBL_10 LBL_10: %55 = load i64, i64* %sv_8, align 8 %56 = call i64 @FUNC(i64 %55, i64 %15, i64 0) store i64 4294967292, i64* %rax.0.reg2mem br label LBL_12 LBL_11: %sv_2.2.reload = load i64, i64* %sv_2.2.reg2mem %57 = load i32, i32* %sv_7, align 4 %58 = load i64, i64* %sv_8, align 8 %59 = call i64 @FUNC(i64 %15, i64 %58, i32 %57) store i64 %sv_2.2.reload, i64* %rax.0.reg2mem br label LBL_12 LBL_12: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %sv_1.1.reload, { 1, 0 } uselistorder i8 %sv_0.1.reload, { 1, 0 } uselistorder i1 %34, { 1, 0 } uselistorder i32 %21, { 1, 0 } uselistorder i64 %16, { 1, 0 } uselistorder i64 %15, { 6, 5, 7, 8, 9, 1, 4, 2, 3, 0, 10 } uselistorder i64 %12, { 2, 1, 3, 0, 4, 5 } uselistorder i32 %6, { 1, 0 } uselistorder i64 %2, { 3, 0, 2, 1 } uselistorder i64* %sv_8, { 2, 3, 4, 0, 1, 5 } uselistorder i32* %sv_7, { 2, 0, 3, 1, 4 } uselistorder i32* %sv_3, { 2, 1, 0, 3 } uselistorder i64* %sv_2.2.reg2mem, { 0, 2, 3, 4, 1 } uselistorder i64* %sv_1.1.reg2mem, { 0, 2, 3, 4, 1 } uselistorder i8* %sv_0.1.reg2mem, { 0, 2, 3, 4, 1 } uselistorder i64* %rdi.1.reg2mem, { 0, 2, 3, 4, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 7, 6, 1, 2, 3, 4, 5 } uselistorder i64 (i64, i8, i32, i64, i8*, i64, i32*)* @wolfSSH_SFTP_CreateStatus, { 1, 0 } uselistorder i64 (i64, i64, i64)* @WFREE, { 1, 0 } uselistorder i64 4294967292, { 1, 0, 2 } uselistorder i64 (i64, i64, i64)* @WMALLOC, { 1, 0 } uselistorder i32 4, { 0, 2, 1 } uselistorder i64 (i64, i8*)* @WLOG, { 1, 0 } uselistorder i32 0, { 2, 3, 4, 5, 0, 1 } uselistorder i32 %arg4, { 1, 0 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_12, { 5, 6, 0, 1, 2, 3, 4 } uselistorder label LBL_7, { 1, 2, 3, 0 } }
1
CompRealVul
ovs_events_plugin_config_7589
ovs_events_plugin_config
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %storemerge9.reg2mem = alloca i32 %.reg2mem = alloca i64 %1 = load i64, i64* %0 %sv_0 = alloca i8*, align 8 %sv_1 = alloca i32, align 4 store i32 0, i32* %sv_1, align 4 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 0 br i1 %3, label LBL_23, label LBL_1 LBL_1: %4 = ptrtoint i64* %arg1 to i64 %5 = add i64 %4, 8 %6 = inttoptr i64 %5 to i64* %7 = bitcast i8** %sv_0 to i64* %8 = bitcast i32* %sv_1 to i64* %9 = and i64 %1, 4294967295 store i64 0, i64* %.reg2mem store i32 0, i32* %storemerge9.reg2mem br label LBL_2 LBL_2: %storemerge9.reload = load i32, i32* %storemerge9.reg2mem %.reload = load i64, i64* %.reg2mem %10 = load i64, i64* %6, align 8 %11 = mul nsw i64 %.reload, 24 %12 = add i64 %10, %11 %13 = add i64 %12, 16 %14 = inttoptr i64 %13 to i64* %15 = load i64, i64* %14, align 8 %16 = inttoptr i64 %15 to i8* %17 = call i32 @strcasecmp(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_0, i64 0, i64 0), i8* %16) %18 = icmp eq i32 %17, 0 %19 = icmp eq i1 %18, false br i1 %19, label LBL_5, label LBL_3 LBL_3: %20 = call i64 @FUNC(i64 %12, i64* nonnull @gv_1) %21 = trunc i64 %20 to i32 %22 = icmp eq i32 %21, 0 br i1 %22, label LBL_22, label LBL_4 LBL_4: %23 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_5: %24 = load i64, i64* %14, align 8 %25 = inttoptr i64 %24 to i8* %26 = call i32 @strcasecmp(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0), i8* %25) %27 = icmp eq i32 %26, 0 %28 = icmp eq i1 %27, false br i1 %28, label LBL_8, label LBL_6 LBL_6: %29 = call i64 @FUNC(i64 %12, i64* nonnull @gv_3, i64 256) %30 = trunc i64 %29 to i32 %31 = icmp eq i32 %30, 0 br i1 %31, label LBL_22, label LBL_7 LBL_7: %32 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_8: %33 = load i64, i64* %14, align 8 %34 = inttoptr i64 %33 to i8* %35 = call i32 @strcasecmp(i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_4, i64 0, i64 0), i8* %34) %36 = icmp eq i32 %35, 0 %37 = icmp eq i1 %36, false br i1 %37, label LBL_12, label LBL_9 LBL_9: store i8* null, i8** %sv_0, align 8 %38 = call i64 @FUNC(i64 %12, i64* nonnull %7) %39 = trunc i64 %38 to i32 %40 = icmp eq i32 %39, 0 br i1 %40, label LBL_11, label LBL_10 LBL_10: %41 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_11: %42 = load i8*, i8** %sv_0, align 8 %43 = call i8* @strncpy(i8* bitcast (i8** @gv_5 to i8*), i8* %42, i32 256) %44 = load i8*, i8** %sv_0, align 8 %45 = ptrtoint i8* %44 to i64 %46 = call i64 @FUNC(i64 %45) br label LBL_22 LBL_12: %47 = load i64, i64* %14, align 8 %48 = inttoptr i64 %47 to i8* %49 = call i32 @strcasecmp(i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_6, i64 0, i64 0), i8* %48) %50 = icmp eq i32 %49, 0 %51 = icmp eq i1 %50, false br i1 %51, label LBL_15, label LBL_13 LBL_13: %52 = call i64 @FUNC(i64 %12, i64* nonnull @gv_7, i64 256) %53 = trunc i64 %52 to i32 %54 = icmp eq i32 %53, 0 br i1 %54, label LBL_22, label LBL_14 LBL_14: %55 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_15: %56 = load i64, i64* %14, align 8 %57 = inttoptr i64 %56 to i8* %58 = call i32 @strcasecmp(i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_8, i64 0, i64 0), i8* %57) %59 = icmp eq i32 %58, 0 %60 = icmp eq i1 %59, false br i1 %60, label LBL_18, label LBL_16 LBL_16: %61 = call i64 @FUNC(i64 %12) %62 = trunc i64 %61 to i32 %63 = icmp eq i32 %62, 0 br i1 %63, label LBL_22, label LBL_17 LBL_17: %64 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_18: %65 = load i64, i64* %14, align 8 %66 = inttoptr i64 %65 to i8* %67 = call i32 @strcasecmp(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_9, i64 0, i64 0), i8* %66) %68 = icmp eq i32 %67, 0 %69 = icmp eq i1 %68, false br i1 %69, label LBL_21, label LBL_19 LBL_19: %70 = call i64 @FUNC(i64 %12, i64* nonnull %8) %71 = trunc i64 %70 to i32 %72 = icmp eq i32 %71, 0 br i1 %72, label LBL_22, label LBL_20 LBL_20: %73 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_21: %74 = load i64, i64* %14, align 8 %75 = load %_IO_FILE*, %_IO_FILE** @gv_10, align 8 %76 = inttoptr i64 %74 to i8* %77 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %75, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_11, i64 0, i64 0), i8* %76) %78 = call i64 @FUNC() store i64 4294967295, i64* %rax.0.reg2mem br label LBL_28 LBL_22: %79 = add i32 %storemerge9.reload, 1 %80 = sext i32 %79 to i64 %81 = icmp sgt i64 %9, %80 store i64 %80, i64* %.reg2mem store i32 %79, i32* %storemerge9.reg2mem br i1 %81, label LBL_2, label LBL_23 LBL_23: %82 = load i8, i8* bitcast (i64* @gv_1 to i8*), align 8 %83 = icmp eq i8 %82, 1 br i1 %83, label LBL_26, label LBL_24 LBL_24: %84 = load i32, i32* %sv_1, align 4 %85 = trunc i32 %84 to i8 %86 = icmp eq i8 %85, 1 br i1 %86, label LBL_26, label LBL_25 LBL_25: %87 = load %_IO_FILE*, %_IO_FILE** @gv_10, align 8 %88 = call i32 @fwrite(i64* bitcast ([160 x i8]* @gv_12 to i64*), i32 1, i32 159, %_IO_FILE* %87) br label LBL_26 LBL_26: %89 = load i32, i32* %sv_1, align 4 %90 = trunc i32 %89 to i8 %91 = icmp eq i8 %90, 0 store i64 0, i64* %rax.0.reg2mem br i1 %91, label LBL_28, label LBL_27 LBL_27: %92 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_13, i64 0, i64 0), i64 4198866, i64 0, i64 0) store i64 %92, i64* %rax.0.reg2mem br label LBL_28 LBL_28: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %12, { 1, 2, 3, 0, 4, 5, 6 } uselistorder i32* %sv_1, { 2, 1, 3, 0 } uselistorder i8** %sv_0, { 2, 1, 0, 3 } uselistorder i64 %1, { 1, 0 } uselistorder i64* %.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge9.reg2mem, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 1, 9, 8, 7, 6, 5, 4, 3 } uselistorder i8 0, { 1, 0 } uselistorder %_IO_FILE** @gv_10, { 1, 0 } uselistorder i64 (i64, i64*, i64)* @cf_util_get_string_buffer, { 1, 0 } uselistorder i64 ()* @ovs_events_config_free, { 6, 5, 4, 3, 2, 1, 0 } uselistorder i64 (i64, i64*)* @cf_util_get_boolean, { 1, 0 } uselistorder i64* @gv_1, { 1, 0 } uselistorder i32 (i8*, i8*)* @strcasecmp, { 5, 4, 3, 2, 1, 0 } uselistorder i64 0, { 25, 24, 23, 21, 22, 0, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 1, 2, 3, 4, 5, 6, 26, 27, 28, 29 } uselistorder i32 0, { 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 0, 1, 2 } uselistorder label LBL_28, { 1, 0, 2, 3, 4, 5, 6, 7, 8 } uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
sbr_hf_calc_npatches_16730
sbr_hf_calc_npatches
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %.reg2mem10 = alloca i32 %sv_0.1.reg2mem = alloca i32 %sv_1.1.reg2mem = alloca i32 %sv_2.1.reg2mem = alloca i32 %.pr.reg2mem = alloca i32 %storemerge1.reg2mem = alloca i32 %sv_3.0.reg2mem = alloca i32 %sv_4.1.reg2mem = alloca i32 %rsi.0.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %sv_1.0.reg2mem = alloca i32 %sv_2.0.reg2mem = alloca i32 %sv_4.0.reg2mem = alloca i32 %.reg2mem = alloca i32 %sv_0.0.ph.reg2mem = alloca i32 %.pre-phi8.reg2mem = alloca i32* %storemerge2.reg2mem = alloca i32 %0 = ptrtoint i64* %arg2 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = inttoptr i64 %3 to i32* %5 = load i32, i32* %4, align 4 %6 = add i64 %0, 16 %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = add i64 %8, 4 %10 = inttoptr i64 %9 to i32* %11 = load i32, i32* %10, align 4 %12 = add i64 %0, 56 %13 = inttoptr i64 %12 to i32* %14 = load i32, i32* %13, align 4 %15 = ashr i32 %14, 1 %16 = add nsw i32 %15, 2048000 %17 = zext i32 %14 to i64 %18 = ashr i32 %16, 31 %19 = zext i32 %16 to i64 %20 = zext i32 %18 to i64 %21 = mul i64 %20, 4294967296 %22 = or i64 %21, %19 %23 = sdiv i64 %22, %17 %24 = add i64 %0, 32 %25 = inttoptr i64 %24 to i32* store i32 0, i32* %25, align 4 %26 = load i64, i64* %7, align 8 %27 = add i64 %26, 4 %28 = inttoptr i64 %27 to i32* %29 = load i32, i32* %28, align 4 %30 = add i64 %0, 24 %31 = inttoptr i64 %30 to i64* %32 = load i64, i64* %31, align 8 %33 = add i64 %32, 4 %34 = inttoptr i64 %33 to i32* %35 = load i32, i32* %34, align 4 %36 = add i32 %35, %29 %37 = zext i32 %36 to i64 %sext = mul i64 %23, 4294967296 %38 = ashr exact i64 %sext, 32 %39 = icmp slt i64 %38, %37 store i32 0, i32* %storemerge2.reg2mem br i1 %39, label LBL_1, label LBL_2 LBL_1: %storemerge2.reload = load i32, i32* %storemerge2.reg2mem %40 = sext i32 %storemerge2.reload to i64 %41 = mul i64 %40, 4 %42 = add i64 %41, %0 %43 = inttoptr i64 %42 to i32* %44 = load i32, i32* %43, align 4 %45 = zext i32 %44 to i64 %46 = icmp sgt i64 %38, %45 %47 = add i32 %storemerge2.reload, 1 store i32 %47, i32* %storemerge2.reg2mem br i1 %46, label LBL_1, label LBL_3 LBL_2: %48 = add i64 %0, 60 %49 = inttoptr i64 %48 to i32* %50 = load i32, i32* %49, align 4 store i32* %49, i32** %.pre-phi8.reg2mem store i32 %50, i32* %sv_0.0.ph.reg2mem br label LBL_4 LBL_3: %.pre6 = add i64 %0, 60 %.pre7 = inttoptr i64 %.pre6 to i32* store i32* %.pre7, i32** %.pre-phi8.reg2mem store i32 %storemerge2.reload, i32* %sv_0.0.ph.reg2mem br label LBL_4 LBL_4: %sv_0.0.ph.reload = load i32, i32* %sv_0.0.ph.reg2mem %.pre-phi8.reload = load i32*, i32** %.pre-phi8.reg2mem %51 = add i64 %0, 40 %52 = inttoptr i64 %51 to i64* %53 = add i64 %0, 48 %54 = inttoptr i64 %53 to i64* store i32 0, i32* %.reg2mem store i32 0, i32* %sv_4.0.reg2mem store i32 %5, i32* %sv_2.0.reg2mem store i32 %11, i32* %sv_1.0.reg2mem store i32 %sv_0.0.ph.reload, i32* %sv_0.0.reg2mem store i64 %0, i64* %rsi.0.reg2mem br label LBL_5 LBL_5: %rsi.0.reload = load i64, i64* %rsi.0.reg2mem %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem %sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem %sv_4.0.reload = load i32, i32* %sv_4.0.reg2mem %.reload = load i32, i32* %.reg2mem %.pre = load i64, i64* %2, align 8 %.phi.trans.insert = inttoptr i64 %.pre to i32* %.pre5 = load i32, i32* %.phi.trans.insert, align 4 store i32 %sv_4.0.reload, i32* %sv_4.1.reg2mem store i32 0, i32* %sv_3.0.reg2mem store i32 %sv_0.0.reload, i32* %storemerge1.reg2mem br label LBL_7 LBL_6: %55 = sext i32 %storemerge1.reload to i64 %56 = mul i64 %55, 4 %57 = add i64 %56, %rsi.0.reload %58 = inttoptr i64 %57 to i32* %59 = load i32, i32* %58, align 4 %60 = add i32 %59, %.pre5 %61 = urem i32 %60, 2 %62 = add i32 %storemerge1.reload, -1 store i32 %59, i32* %sv_4.1.reg2mem store i32 %61, i32* %sv_3.0.reg2mem store i32 %62, i32* %storemerge1.reg2mem br label LBL_7 LBL_7: %storemerge1.reload = load i32, i32* %storemerge1.reg2mem %63 = icmp eq i32 %storemerge1.reload, %sv_0.0.reload br i1 %63, label LBL_6, label LBL_8 LBL_8: %sv_3.0.reload = load i32, i32* %sv_3.0.reg2mem %sv_4.1.reload = load i32, i32* %sv_4.1.reg2mem %64 = sub i32 0, %sv_3.0.reload %65 = sub i32 %64, 1 %66 = add i32 %sv_2.0.reload, %65 %67 = add i32 %66, %.pre5 %68 = zext i32 %67 to i64 %69 = sext i32 %sv_4.1.reload to i64 %70 = icmp sgt i64 %69, %68 br i1 %70, label LBL_6, label LBL_9 LBL_9: %71 = sub i32 %sv_4.1.reload, %sv_1.0.reload %72 = load i64, i64* %52, align 8 %73 = sext i32 %.reload to i64 %74 = mul i64 %73, 4 %75 = add i64 %72, %74 %76 = icmp sgt i32 %71, 0 %77 = select i1 %76, i32 %71, i32 0 %78 = inttoptr i64 %75 to i32* store i32 %77, i32* %78, align 4 %79 = load i64, i64* %2, align 8 %80 = inttoptr i64 %79 to i32* %81 = load i32, i32* %80, align 4 %82 = sub i32 %81, %sv_3.0.reload %83 = load i64, i64* %52, align 8 %84 = load i32, i32* %25, align 4 %85 = sext i32 %84 to i64 %86 = mul i64 %85, 4 %87 = add i64 %86, %83 %88 = inttoptr i64 %87 to i32* %89 = load i32, i32* %88, align 4 %90 = load i64, i64* %54, align 8 %91 = add i64 %86, %90 %92 = sub i32 %82, %89 %93 = inttoptr i64 %91 to i32* store i32 %92, i32* %93, align 4 %94 = load i64, i64* %52, align 8 %95 = load i32, i32* %25, align 4 %96 = sext i32 %95 to i64 %97 = mul i64 %96, 4 %98 = add i64 %97, %94 %99 = inttoptr i64 %98 to i32* %100 = load i32, i32* %99, align 4 %101 = icmp slt i32 %100, 1 br i1 %101, label LBL_11, label LBL_10 LBL_10: %102 = add i32 %95, 1 store i32 %102, i32* %25, align 4 store i32 %102, i32* %.pr.reg2mem store i32 %sv_4.1.reload, i32* %sv_2.1.reg2mem store i32 %sv_4.1.reload, i32* %sv_1.1.reg2mem br label LBL_12 LBL_11: %103 = load i64, i64* %7, align 8 %104 = add i64 %103, 4 %105 = inttoptr i64 %104 to i32* %106 = load i32, i32* %105, align 4 store i32 %95, i32* %.pr.reg2mem store i32 %106, i32* %sv_2.1.reg2mem store i32 %sv_1.0.reload, i32* %sv_1.1.reg2mem br label LBL_12 LBL_12: %sv_1.1.reload = load i32, i32* %sv_1.1.reg2mem %sv_2.1.reload = load i32, i32* %sv_2.1.reg2mem %.pr.reload = load i32, i32* %.pr.reg2mem %107 = sext i32 %sv_0.0.reload to i64 %108 = mul i64 %107, 4 %109 = add i64 %90, %108 %110 = inttoptr i64 %109 to i32* %111 = load i32, i32* %110, align 4 %112 = sub i32 %111, %sv_4.1.reload %113 = icmp sgt i32 %112, 2 store i32 %sv_0.0.reload, i32* %sv_0.1.reg2mem br i1 %113, label LBL_14, label LBL_13 LBL_13: %114 = load i32, i32* %.pre-phi8.reload, align 4 store i32 %114, i32* %sv_0.1.reg2mem br label LBL_14 LBL_14: %sv_0.1.reload = load i32, i32* %sv_0.1.reg2mem %115 = load i64, i64* %7, align 8 %116 = add i64 %115, 4 %117 = inttoptr i64 %116 to i32* %118 = load i32, i32* %117, align 4 %119 = load i64, i64* %31, align 8 %120 = add i64 %119, 4 %121 = inttoptr i64 %120 to i32* %122 = load i32, i32* %121, align 4 %123 = add i32 %122, %118 %124 = icmp eq i32 %sv_4.1.reload, %123 %125 = icmp eq i1 %124, false store i32 %.pr.reload, i32* %.reg2mem store i32 %sv_4.1.reload, i32* %sv_4.0.reg2mem store i32 %sv_2.1.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.1.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.1.reload, i32* %sv_0.0.reg2mem store i64 %90, i64* %rsi.0.reg2mem br i1 %125, label LBL_5, label LBL_15 LBL_15: %126 = load i64, i64* %52, align 8 %127 = sext i32 %.pr.reload to i64 %128 = mul i64 %127, 4 %129 = add nsw i64 %128, -4 %130 = add i64 %129, %126 %131 = inttoptr i64 %130 to i32* %132 = load i32, i32* %131, align 4 %133 = icmp sgt i32 %132, 2 %134 = icmp slt i32 %.pr.reload, 2 %or.cond = or i1 %134, %133 store i32 %.pr.reload, i32* %.reg2mem10 br i1 %or.cond, label LBL_17, label LBL_16 LBL_16: %135 = add i32 %.pr.reload, -1 store i32 %135, i32* %25, align 4 store i32 %135, i32* %.reg2mem10 br label LBL_17 LBL_17: %.reload11 = load i32, i32* %.reg2mem10 %136 = icmp slt i32 %.reload11, 7 store i64 0, i64* %storemerge.reg2mem br i1 %136, label LBL_19, label LBL_18 LBL_18: %137 = zext i32 %.reload11 to i64 %138 = call i64 @FUNC(i64 %17, i64 0, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_0, i64 0, i64 0), i64 %137) store i64 4294967295, i64* %storemerge.reg2mem br label LBL_19 LBL_19: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32 %.pr.reload, { 2, 0, 1, 3, 4 } uselistorder i32 %sv_4.1.reload, { 6, 5, 4, 0, 1, 3, 2 } uselistorder i32 %.pre5, { 1, 0 } uselistorder i32 %sv_0.0.reload, { 0, 3, 2, 1 } uselistorder i32 %storemerge2.reload, { 0, 2, 1 } uselistorder i32* %25, { 1, 0, 2, 3, 4 } uselistorder i64* %2, { 1, 0, 2 } uselistorder i64 %0, { 0, 3, 4, 2, 6, 1, 5, 7, 8, 9, 10 } uselistorder i32* %storemerge2.reg2mem, { 2, 0, 1 } uselistorder i32** %.pre-phi8.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_0.0.ph.reg2mem, { 0, 2, 1 } uselistorder i32* %.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_4.0.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_2.0.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_1.0.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_0.0.reg2mem, { 2, 0, 1 } uselistorder i64* %rsi.0.reg2mem, { 2, 0, 1 } uselistorder i32* %.pr.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_2.1.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_1.1.reg2mem, { 0, 2, 1 } uselistorder i32* %.reg2mem10, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32 -1, { 1, 0 } uselistorder i32 2, { 1, 2, 3, 0 } uselistorder i64 4, { 0, 7, 8, 1, 9, 2, 3, 4, 5, 6, 10, 11, 12 } uselistorder label LBL_19, { 1, 0 } uselistorder label LBL_17, { 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
1
CompRealVul
usbredir_post_load_17633
usbredir_post_load
define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %.pre-phi.reg2mem = alloca i64 %.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 3 br i1 %3, label LBL_6, label LBL_1 LBL_1: %4 = icmp ult i32 %2, 4 br i1 %4, label LBL_2, label LBL_7 LBL_2: switch i32 %2, label LBL_7 [ i32 2, label LBL_5 i32 0, label LBL_3 i32 1, label LBL_4 ] LBL_3: %5 = ptrtoint i32* %arg1 to i64 %6 = add i64 %5, 4 %7 = inttoptr i64 %6 to i32* store i32 0, i32* %7, align 4 store i32 0, i32* %.reg2mem store i64 %5, i64* %.pre-phi.reg2mem br label LBL_8 LBL_4: %8 = ptrtoint i32* %arg1 to i64 %9 = add i64 %8, 4 %10 = inttoptr i64 %9 to i32* store i32 1, i32* %10, align 4 store i32 1, i32* %.reg2mem store i64 %8, i64* %.pre-phi.reg2mem br label LBL_8 LBL_5: %11 = ptrtoint i32* %arg1 to i64 %12 = add i64 %11, 4 %13 = inttoptr i64 %12 to i32* store i32 2, i32* %13, align 4 store i32 2, i32* %.reg2mem store i64 %11, i64* %.pre-phi.reg2mem br label LBL_8 LBL_6: %14 = ptrtoint i32* %arg1 to i64 %15 = add i64 %14, 4 %16 = inttoptr i64 %15 to i32* store i32 3, i32* %16, align 4 store i32 3, i32* %.reg2mem store i64 %14, i64* %.pre-phi.reg2mem br label LBL_8 LBL_7: %17 = ptrtoint i32* %arg1 to i64 %18 = add i64 %17, 4 %19 = inttoptr i64 %18 to i32* store i32 1, i32* %19, align 4 store i32 1, i32* %.reg2mem store i64 %17, i64* %.pre-phi.reg2mem br label LBL_8 LBL_8: %.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem %.reload = load i32, i32* %.reg2mem %20 = shl i32 1, %.reload %21 = add i64 %.pre-phi.reload, 8 %22 = inttoptr i64 %21 to i32* store i32 %20, i32* %22, align 4 %23 = call i64 @FUNC(i64 %.pre-phi.reload) %24 = call i64 @FUNC(i64 %.pre-phi.reload) ret i64 0 uselistorder i64 %.pre-phi.reload, { 1, 0, 2 } uselistorder i32 %2, { 2, 1, 0 } uselistorder i32* %.reg2mem, { 0, 5, 4, 3, 2, 1 } uselistorder i64* %.pre-phi.reg2mem, { 0, 5, 4, 3, 2, 1 } uselistorder i32 0, { 0, 2, 1 } uselistorder i32 2, { 0, 2, 1 } uselistorder i32 3, { 0, 2, 1 } uselistorder i32* %arg1, { 0, 4, 3, 1, 2 } }
1
CompRealVul
atl2_read_phy_reg_10172
atl2_read_phy_reg
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge12.reg2mem = alloca i32 %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg2 to i32 %2 = mul i32 %1, 2097152 %3 = and i32 %2, 65011712 %4 = or i32 %3, 2055 %5 = call i64 @FUNC(i64 %0, i64 0, i32 %4) %6 = call i64 @FUNC() store i32 0, i32* %storemerge12.reg2mem br label LBL_1 LBL_1: %7 = call i64 @FUNC(i64 2) %8 = call i64 @FUNC(i64 %0, i64 0) %9 = and i64 %8, 17 %10 = icmp eq i64 %9, 0 br i1 %10, label LBL_3, label LBL_2 LBL_2: %storemerge12.reload = load i32, i32* %storemerge12.reg2mem %11 = call i64 @FUNC() %12 = add nuw nsw i32 %storemerge12.reload, 1 %13 = icmp ult i32 %12, 100 store i32 %12, i32* %storemerge12.reg2mem store i64 4294967295, i64* %storemerge.reg2mem br i1 %13, label LBL_1, label LBL_4 LBL_3: %14 = trunc i64 %8 to i16 %15 = bitcast i64* %arg3 to i16* store i16 %14, i16* %15, align 2 store i64 0, i64* %storemerge.reg2mem br label LBL_4 LBL_4: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32* %storemerge12.reg2mem, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 ()* @wmb, { 1, 0 } uselistorder label LBL_4, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
0
CompRealVul
start_cfs_slack_bandwidth_10360
start_cfs_slack_bandwidth
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = load i64, i64* @gv_0, align 8 %2 = load i64, i64* @gv_1, align 8 %3 = add i64 %2, %1 %4 = call i64 @FUNC(i64 %0, i64 %3) %5 = trunc i64 %4 to i32 %6 = icmp eq i32 %5, 0 %7 = icmp eq i1 %6, false store i64 %4, i64* %rax.0.reg2mem br i1 %7, label LBL_2, label LBL_1 LBL_1: %8 = load i64, i64* @gv_0, align 8 %9 = call i64 @FUNC(i64 %8) %10 = call i64 @FUNC(i64 %0, i64 %9, i64 %3, i64 0) store i64 %10, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
tls_read_1443
tls_read
define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.0.in.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i64, align 8 %sv_2 = alloca i64, align 8 %sext = mul i64 %arg3, 4294967296 store i64 0, i64* %sv_2, align 8 store i64 0, i64* %sv_1, align 8 %1 = call i64 @FUNC(i64 %0, i64* nonnull %sv_2) %2 = load i64, i64* %sv_2, align 8 %3 = icmp eq i64 %2, 0 store i64 %sext, i64* %sv_0.0.in.reg2mem br i1 %3, label LBL_2, label LBL_1 LBL_1: %4 = ashr exact i64 %sext, 32 %5 = icmp ugt i64 %4, %2 %6 = select i1 %5, i64 %2, i64 %4 %sext3 = mul i64 %6, 4294967296 store i64 %sext3, i64* %sv_0.0.in.reg2mem br label LBL_2 LBL_2: %7 = ptrtoint i64* %arg2 to i64 %sv_0.0.in.reload = load i64, i64* %sv_0.0.in.reg2mem %8 = udiv i64 %sv_0.0.in.reload, 4294967296 %9 = trunc i64 %8 to i32 %10 = call i64 @FUNC(i64 %0, i64 %7, i32 %9, i64* nonnull %sv_1) %11 = load i64, i64* %sv_1, align 8 %12 = and i64 %10, 4294967295 %13 = call i64 @FUNC(i64 %12, i64 %11) %14 = trunc i64 %13 to i32 %15 = icmp slt i32 %14, 1 br i1 %15, label LBL_4, label LBL_3 LBL_3: %16 = and i64 %13, 4294967295 store i64 %16, i64* %rax.0.reg2mem br label LBL_6 LBL_4: %17 = icmp eq i32 %14, 0 %18 = icmp eq i1 %17, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %18, label LBL_5, label LBL_6 LBL_5: %19 = and i64 %13, 4294967295 %20 = call i64 @FUNC(i64 %0, i64 %19) store i64 %20, i64* %rax.0.reg2mem br label LBL_6 LBL_6: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %2, { 1, 0, 2 } uselistorder i64 %sext, { 1, 0 } uselistorder i64* %sv_2, { 1, 0, 2 } uselistorder i64* %sv_1, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 } uselistorder i64 4294967296, { 2, 0, 1 } uselistorder label LBL_6, { 1, 0, 2 } }
0
CompRealVul
nbd_client_session_close_16303
nbd_client_session_close
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = icmp eq i64* %arg1, null br i1 %1, label LBL_2, label LBL_1 LBL_1: %2 = call i64 @FUNC(i64 %0) store i64 0, i64* %arg1, align 8 br label LBL_2 LBL_2: ret i64 %0 uselistorder label LBL_2, { 1, 0 } }
1
CompRealVul
mirror_complete_14288
mirror_complete
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 %2 = add i64 %1, 16 %3 = inttoptr i64 %2 to i64* %4 = load i64, i64* %3, align 8 %5 = call i64 @FUNC(i64 %4) %6 = trunc i64 %5 to i32 %7 = icmp slt i32 %6, 0 %8 = icmp eq i1 %7, false br i1 %8, label LBL_2, label LBL_1 LBL_1: %9 = load i64, i64* %3, align 8 %10 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0, i64 4096) %11 = call i64 @FUNC(i64 %0, i64 1, i64* nonnull %sv_0) store i64 %11, i64* %rax.0.reg2mem br label LBL_5 LBL_2: %12 = add i64 %1, 8 %13 = inttoptr i64 %12 to i32* %14 = load i32, i32* %13, align 4 %15 = icmp eq i32 %14, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_4, label LBL_3 LBL_3: %17 = inttoptr i64 %4 to i64* %18 = call i64 @FUNC(i64 %0, i64 2, i64* %17) store i64 %18, i64* %rax.0.reg2mem br label LBL_5 LBL_4: %19 = add i64 %1, 12 %20 = inttoptr i64 %19 to i32* store i32 1, i32* %20, align 4 %21 = call i64 @FUNC(i64 %1) store i64 %21, i64* %rax.0.reg2mem br label LBL_5 LBL_5: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %1, { 0, 2, 1, 3 } uselistorder i64 %0, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder i64 (i64, i64, i64*)* @error_set, { 1, 0 } }
1
CompRealVul
s390_virtio_hypercall_14081
s390_virtio_hypercall
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 4 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = sext i32 %3 to i64 %5 = mul i64 %4, 8 %6 = add i64 %5, ptrtoint (i64* @gv_0 to i64) %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = icmp eq i64 %8, 0 %10 = icmp eq i1 %9, false %storemerge = select i1 %10, i64 %8, i64 4294967274 ret i64 %storemerge }
1
CompRealVul
spapr_vty_init_2428
spapr_vty_init
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = icmp eq i64* %arg1, null %1 = icmp eq i1 %0, false br i1 %1, label LBL_2, label LBL_1 LBL_1: %2 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %3 = call i32 @fwrite(i64* bitcast ([48 x i8]* @gv_1 to i64*), i32 1, i32 47, %_IO_FILE* %2) call void @exit(i32 1) unreachable LBL_2: %4 = ptrtoint i64* %arg1 to i64 %5 = call i64 @FUNC(i64 %4, i64 4198737, i64 4198744, i64 0, i64 %4) ret i64 0 uselistorder i64 %4, { 1, 0 } uselistorder i64* %arg1, { 1, 0 } }
0
CompRealVul
jpc_pi_destroy_9601
jpc_pi_destroy
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %sv_0.01.reg2mem = alloca i32 %0 = icmp eq i64 %arg1, 0 br i1 %0, label LBL_4, label LBL_1 LBL_1: %1 = add i64 %arg1, 16 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = icmp eq i32 %3, 0 store i32 0, i32* %sv_0.01.reg2mem br i1 %4, label LBL_3, label LBL_2 LBL_2: %sv_0.01.reload = load i32, i32* %sv_0.01.reg2mem %5 = call i64 @FUNC(i64 %arg1) %6 = add i32 %sv_0.01.reload, 1 %7 = load i32, i32* %2, align 4 %8 = zext i32 %7 to i64 %9 = sext i32 %6 to i64 %10 = icmp slt i64 %9, %8 store i32 %6, i32* %sv_0.01.reg2mem br i1 %10, label LBL_2, label LBL_3 LBL_3: %11 = call i64 @FUNC(i64 %arg1) br label LBL_4 LBL_4: %12 = add i64 %arg1, 8 %13 = inttoptr i64 %12 to i64* %14 = load i64, i64* %13, align 8 %15 = icmp eq i64 %14, 0 br i1 %15, label LBL_6, label LBL_5 LBL_5: %16 = call i64 @FUNC(i64 %14) br label LBL_6 LBL_6: %17 = call i64 @FUNC(i64 %arg1) ret i64 %17 uselistorder i32* %2, { 1, 0 } uselistorder i32* %sv_0.01.reg2mem, { 2, 0, 1 } uselistorder i64 (i64)* @jas_free, { 1, 0 } uselistorder i32 1, { 3, 2, 1, 0 } uselistorder i64 %arg1, { 3, 4, 0, 1, 2, 5 } uselistorder label LBL_2, { 1, 0 } }
0
CompRealVul
showLatencyDistLegend_8796
showLatencyDistLegend
define i64 @FUNC() local_unnamed_addr { LBL_0: %storemerge1.reg2mem = alloca i32 %0 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_0, i64 0, i64 0)) %1 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0)) %2 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_2, i64 0, i64 0)) %3 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_3, i64 0, i64 0)) %4 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_4, i64 0, i64 0)) %5 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_5, i64 0, i64 0)) %6 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_6, i64 0, i64 0)) store i32 0, i32* %storemerge1.reg2mem br label LBL_1 LBL_1: %storemerge1.reload = load i32, i32* %storemerge1.reg2mem %7 = call i32 (i8*, ...) @printf(i8* bitcast (i8** @gv_7 to i8*)) %8 = add nuw nsw i32 %storemerge1.reload, 1 %exitcond = icmp eq i32 %8, 10 store i32 %8, i32* %storemerge1.reg2mem br i1 %exitcond, label LBL_2, label LBL_1 LBL_2: %9 = call i32 @puts(i8* inttoptr (i64 4202828 to i8*)) %10 = call i32 @puts(i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_0, i64 0, i64 0)) %11 = sext i32 %10 to i64 ret i64 %11 uselistorder i32* %storemerge1.reg2mem, { 1, 0, 2 } uselistorder i32 (i8*, ...)* @printf, { 1, 0 } uselistorder i32 (i8*)* @puts, { 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder i32 1, { 1, 0 } }
0
CompRealVul
qemu_system_vmstop_request_1593
qemu_system_vmstop_request
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = trunc i64 %arg1 to i32 store i32 %0, i32* bitcast (i64* @gv_0 to i32*), align 8 %1 = call i64 @FUNC(i64 4210724) %2 = call i64 @FUNC() ret i64 %2 }
0
CompRealVul
dalvik_assemble_10311
dalvik_assemble
define i64 @FUNC(i32* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = inttoptr i64 %arg3 to i8* %3 = call i8* @strchr(i8* %2, i32 32) %4 = icmp eq i8* %3, null br i1 %4, label LBL_2, label LBL_1 LBL_1: store i8 0, i8* %3, align 1 br label LBL_2 LBL_2: %5 = ptrtoint i64* %arg2 to i64 %6 = trunc i64 %1 to i32 store i64 0, i64* %indvars.iv.reg2mem br label LBL_3 LBL_3: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %7 = mul i64 %indvars.iv.reload, 16 %8 = add i64 %7, ptrtoint (i64* @gv_0 to i64) %9 = inttoptr i64 %8 to i64* %10 = load i64, i64* %9, align 8 %11 = inttoptr i64 %10 to i8* %12 = call i32 @strcmp(i8* %11, i8* %2) %13 = icmp eq i32 %12, 0 %14 = icmp eq i1 %13, false br i1 %14, label LBL_5, label LBL_4 LBL_4: %15 = and i64 %indvars.iv.reload, 4294967295 %16 = call i64 @FUNC(i64 %5, i64 %15, i32 %6) %17 = add i64 %7, ptrtoint (i32** @gv_1 to i64) %18 = inttoptr i64 %17 to i32* %19 = load i32, i32* %18, align 8 %20 = add i64 %5, 256 %21 = inttoptr i64 %20 to i32* store i32 %19, i32* %21, align 4 %22 = zext i32 %19 to i64 store i64 %22, i64* %storemerge.reg2mem br label LBL_6 LBL_5: %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %23 = icmp ult i64 %indvars.iv.next, 256 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem store i64 0, i64* %storemerge.reg2mem br i1 %23, label LBL_3, label LBL_6 LBL_6: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %7, { 1, 0 } uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 } uselistorder i8 0, { 1, 0 } uselistorder label LBL_3, { 1, 0 } }
0
CompRealVul
unreference_pic_5179
unreference_pic
define i64 @FUNC(i64* %arg1, i32* %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i64 %storemerge23.reg2mem = alloca i32 %.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = trunc i64 %1 to i32 %3 = and i64 %1, %arg3 %4 = trunc i64 %3 to i32 store i32 %4, i32* %arg2, align 4 %5 = icmp eq i32 %2, 0 store i64 0, i64* %storemerge.reg2mem br i1 %5, label LBL_1, label LBL_6 LBL_1: %6 = load i64, i64* %arg1, align 8 %7 = icmp eq i64 %6, 0 %8 = icmp eq i1 %7, false store i64 1, i64* %storemerge.reg2mem br i1 %8, label LBL_2, label LBL_6 LBL_2: %9 = ptrtoint i64* %arg1 to i64 %10 = ptrtoint i32* %arg2 to i64 store i64 %6, i64* %.reg2mem store i32 0, i32* %storemerge23.reg2mem br label LBL_3 LBL_3: %.reload = load i64, i64* %.reg2mem %11 = icmp eq i64 %.reload, %10 %12 = icmp eq i1 %11, false br i1 %12, label LBL_5, label LBL_4 LBL_4: store i32 1, i32* %arg2, align 4 store i64 1, i64* %storemerge.reg2mem br label LBL_6 LBL_5: %storemerge23.reload = load i32, i32* %storemerge23.reg2mem %13 = add i32 %storemerge23.reload, 1 %14 = sext i32 %13 to i64 %15 = mul i64 %14, 8 %16 = add i64 %15, %9 %17 = inttoptr i64 %16 to i64* %18 = load i64, i64* %17, align 8 %19 = icmp eq i64 %18, 0 %20 = icmp eq i1 %19, false store i64 %18, i64* %.reg2mem store i32 %13, i32* %storemerge23.reg2mem store i64 1, i64* %storemerge.reg2mem br i1 %20, label LBL_3, label LBL_6 LBL_6: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %1, { 1, 0 } uselistorder i64* %.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge23.reg2mem, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 1, 3, 2, 4 } uselistorder i1 false, { 2, 1, 0 } uselistorder i32* %arg2, { 1, 0, 2 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_6, { 0, 2, 1, 3 } uselistorder label LBL_3, { 1, 0 } }
0
CompRealVul
esp_mem_readb_13876
esp_mem_readb
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = ptrtoint i64* %arg1 to i64 %4 = add i64 %3, 2060 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = zext i32 %6 to i64 %8 = urem i32 %6, 32 %9 = icmp eq i32 %8, 0 %10 = trunc i64 %arg2 to i32 %11 = lshr i32 %10, %8 %12 = zext i32 %11 to i64 %rdx.0 = select i1 %9, i64 %arg2, i64 %12 %13 = trunc i64 %rdx.0 to i32 %14 = urem i32 %13, 256 %15 = mul i32 %14, 4 %16 = zext i32 %15 to i64 %17 = add i64 %16, %3 %18 = inttoptr i64 %17 to i32* %19 = load i32, i32* %18, align 4 %20 = zext i32 %14 to i64 %21 = call i64 @FUNC(i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i64 %20, i32 %19, i64 %7, i64 %2, i64 %1) %trunc = trunc i64 %rdx.0 to i8 switch i8 %trunc, label LBL_8 [ i8 0, label LBL_1 i8 1, label LBL_7 ] LBL_1: %22 = add i64 %3, 1024 %23 = inttoptr i64 %22 to i32* %24 = load i32, i32* %23, align 4 %25 = icmp eq i32 %24, 0 br i1 %25, label LBL_6, label LBL_2 LBL_2: %26 = add i32 %24, -1 store i32 %26, i32* %23, align 4 %27 = add i64 %3, 8 %28 = inttoptr i64 %27 to i32* %29 = load i32, i32* %28, align 4 %30 = urem i32 %29, 2 %31 = icmp eq i32 %30, 0 %32 = icmp eq i1 %31, false br i1 %32, label LBL_4, label LBL_3 LBL_3: %33 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8 %34 = call i32 @fwrite(i64* bitcast ([36 x i8]* @gv_2 to i64*), i32 1, i32 35, %_IO_FILE* %33) %35 = bitcast i64* %arg1 to i32* store i32 0, i32* %35, align 4 br label LBL_5 LBL_4: %36 = add i64 %3, 1028 %37 = inttoptr i64 %36 to i32* %38 = load i32, i32* %37, align 4 %39 = add i32 %38, 1 store i32 %39, i32* %37, align 4 %40 = zext i32 %38 to i64 %41 = mul i64 %40, 4 %42 = add i64 %3, 1036 %43 = add i64 %42, %41 %44 = inttoptr i64 %43 to i32* %45 = load i32, i32* %44, align 4 %46 = bitcast i64* %arg1 to i32* store i32 %45, i32* %46, align 4 br label LBL_5 LBL_5: %47 = call i64 @FUNC(i64 %3) %.pre = load i32, i32* %23, align 4 %phitmp = icmp eq i32 %.pre, 0 %phitmp1 = icmp eq i1 %phitmp, false br i1 %phitmp1, label LBL_8, label LBL_6 LBL_6: %48 = add i64 %3, 1028 %49 = inttoptr i64 %48 to i32* store i32 0, i32* %49, align 4 %50 = add i64 %3, 1032 %51 = inttoptr i64 %50 to i32* store i32 0, i32* %51, align 4 br label LBL_8 LBL_7: %52 = add i64 %3, 8 %53 = inttoptr i64 %52 to i32* %54 = load i32, i32* %53, align 4 %55 = and i32 %54, -7 store i32 %55, i32* %53, align 4 %56 = call i64 @FUNC(i64 %3) br label LBL_8 LBL_8: %57 = load i32, i32* %18, align 4 %58 = zext i32 %57 to i64 ret i64 %58 uselistorder i32 %14, { 1, 0 } uselistorder i32 %8, { 1, 0 } uselistorder i64 %3, { 2, 3, 7, 8, 4, 1, 6, 5, 9, 0, 10 } uselistorder i64* %0, { 1, 0 } uselistorder i8 0, { 0, 2, 1 } uselistorder i32 0, { 1, 2, 0, 3, 4, 5, 6 } uselistorder label LBL_8, { 3, 2, 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_5, { 1, 0 } }
1
CompRealVul
pnv_chip_power9_class_init_17007
pnv_chip_power9_class_init
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i32* store i32 1, i32* %2, align 4 %3 = add i64 %0, 16 %4 = inttoptr i64 %3 to i64* store i64 1156598587170226176, i64* %4, align 8 %5 = add i64 %0, 24 %6 = inttoptr i64 %5 to i32* store i32 -1, i32* %6, align 4 %7 = add i64 %0, 32 %8 = inttoptr i64 %7 to i64* store i64 4198694, i64* %8, align 8 store i64 ptrtoint ([20 x i8]* @gv_0 to i64), i64* %arg1, align 8 ret i64 %0 }
1
CompRealVul
get_schema_version_10819
get_schema_version
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %0 = icmp eq i64 %arg1, 0 %1 = icmp eq i1 %0, false %2 = select i1 %1, i64 %arg1, i64 ptrtoint ([5 x i8]* @gv_0 to i64) store i64 0, i64* %indvars.iv.reg2mem br label LBL_1 LBL_1: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %3 = mul i64 %indvars.iv.reload, 8 %4 = add i64 %3, ptrtoint ([10 x i8*]* @gv_1 to i64) %5 = inttoptr i64 %4 to i64* %6 = load i64, i64* %5, align 8 %7 = call i64 @FUNC(i64 %2, i64 %6) %8 = trunc i64 %7 to i32 %9 = icmp eq i32 %8, 0 br i1 %9, label LBL_3, label LBL_2 LBL_2: %10 = and i64 %indvars.iv.reload, 4294967295 store i64 %10, i64* %storemerge.reg2mem br label LBL_4 LBL_3: %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %11 = icmp ult i64 %indvars.iv.next, 10 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem store i64 4294967295, i64* %storemerge.reg2mem br i1 %11, label LBL_1, label LBL_4 LBL_4: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 } uselistorder i32 0, { 20, 21, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19 } uselistorder i32 1, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
0
End of preview. Expand in Data Studio

CompRealVul_LLVM Dataset

Hugging Face

Dataset Summary

CompRealVul_LLVM is the LLVM IR (Intermediate Representation) version of the CompRealVul_C dataset. This version is designed specifically for training and evaluating machine learning models on the task of binary vulnerability detection in a setting that closely mimics how models are used in practice — operating on the compiled representation of code rather than raw source code.

Each function in this dataset was compiled from C code to LLVM IR, enabling robust training of models on semantically rich, architecture-independent binary representations.

This dataset supports research aligned with the methodology described in our paper, where the goal is to predict vulnerabilities directly from compiled IR representations rather than from source code.

Key Features

  • LLVM IR representation of each function (field: llvm_ir_function)
  • ✅ Includes train, validation, and test splits (see below)
  • ✅ Vulnerability labels (label) for supervised learning
  • ✅ Metadata about original source (dataset, file, fun_name)

Dataset Structure

Each record contains:

  • dataset: Original dataset source of the function (e.g., Juliet, NVD)
  • file: File path of the source from which the function was extracted
  • fun_name: Name of the function in the source code
  • llvm_ir_function: LLVM IR string representing the function
  • label: Binary label indicating vulnerability (1 for vulnerable, 0 for non-vulnerable)
  • split: Dataset split (train, validation, test)

Split Information

This dataset is split into train, validation, and test sets, following the exact partitioning strategy used in the experiments described in our paper. The split ensures a fair evaluation of generalization performance by separating functions into disjoint sets with no overlap. This allows researchers to directly reproduce our results or compare against them under consistent conditions.

  • train: Used to fit model parameters
  • validation: Used for model selection and hyperparameter tuning
  • test: Used exclusively for final evaluation and benchmarking

Usage

You can load and explore the dataset using the 🤗 datasets library:

from datasets import load_dataset

# Load a specific split
train_ds = load_dataset("compAgent/CompRealVul_LLVM", split="train")
print(train_ds[0])

## Example
```json
{
  "dataset": "CompRealVul",
  "file": "app_122.c",
  "fun_name": "app",
  "llvm_ir_function": "define dso_local i32 @app() #0 { ... }",
  "label": "1",
  "split": "train"
}

License

This dataset is released under the GPL-3.0.

Citation

@misc{comprealvul_llvm,
  author       = {Compote},
  title        = {CompRealVul_LLVM: A Dataset of Vulnerable and Non-Vulnerable Functions in LLVM IR},
  howpublished = {\url{https://huggingface.co/datasets/compAgent/CompRealVul_LLVM}},
  year         = {2025}
}
Downloads last month
76