AI Voice Cloning Scam : స్కామర్లతో జాగ్రత్త.. ఈ ఏఐ వాయిస్ క్లోనింగ్ ట్రిక్‌తో సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్‌లను క్రియేట్ చేయొచ్చు..!

AI Voice Cloning Trick Scam : ఆన్‌లైన్ స్కామర్లతో జాగ్రత్త.. మీకు తెలియకుండానే మీ వాయిస్ క్లోన్ చేస్తున్నారు తెలుసా? వాయిస్ క్లోనింగ్ ట్రిక్‌తో సెకన్లలోనే ఫేక్ వాయిస్‌లను క్రియేట్ చేయొచ్చు.

AI Voice Cloning Trick Scam : అంతా ఏఐ టెక్ యుగం.. ఏది రియల్, ఏది ఫేక్ అనేది గుర్తుపట్టడం కష్టమే.. ఆన్‌లైన్ స్కామర్లు ఈ కొత్త టెక్నాలజీతో అనేక మోసాలకు పాల్పడుతున్నారు. ప్రస్తుత వాయిస్ క్లోనింగ్, డీప్‌ఫేక్ టెక్నాలజీ ఉపయోగించి అనేక మోసాలకు తెగబడుతున్నారు. ఫ్రాడ్, ప్రైవసీ ఉల్లంఘనలతో అనేక మంది వినియోగదారుల్లో మరింత భయాలను పెంచుతుంది. అయితే, స్కామర్లు ప్రజలను మోసగించడానికి వాయిస్ క్లోనింగ్ టెక్‌ని ఉపయోగిస్తున్నారు. సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్‌లను క్రియేట్ చేస్తున్నారు. ఇటీవలే హీరోయిన్ రష్మిక మందన్న(Rashmika Mandanna) కూడా ఎలివేటర్‌లోకి ప్రవేశించినట్లు చిత్రీకరించిన వైరల్ డీప్‌ఫేక్ వీడియో బయటకు వచ్చిన సంగతి తెలిసిందే. క్లోనింగ్ ట్రిక్ టెక్నాలజీ గురించి పూర్తి వివరాలను ఇప్పుడు తెలుసుకుందాం.

పబ్లిక్ ఫిగర్లపైనే స్కామర్ల టార్గెట్.. :
కృత్రిమ మేధస్సు (Artificial Intelligence) వేగంగా అభివృద్ధి చెందుతున్న ప్రపంచంలో వాయిస్ క్లోనింగ్ టెక్నాలజీ పెరుగుదల చట్టసభ సభ్యులు, భద్రతా నిపుణులలో భయాన్ని రేకెత్తించింది. స్కామర్‌లు ప్రముఖ వ్యక్తుల నుంచి అమాయక ప్రజల వరకు లక్ష్యంగా చేసుకుని మోసం చేసేందుకు ఇప్పటికే ఈ టెక్నాలజీని ఉపయోగించుకుంటున్నారు. అయితే, న్యూయార్క్ నగర మేయర్ ఎరిక్ ఆడమ్స్ వంటి పబ్లిక్ ఫిగర్స్ సొంత వాయిస్‌ను AI- రూపొందించిన క్లోన్‌లతో స్కామర్లు వినూత్నంగా ఉపయోగిస్తున్నారని తేలింది. అమెరికా అధ్యక్షుడు బిడెన్ అడ్మినిస్ట్రేషన్ ఏఐకి నాయకత్వం వహించే వైట్ హౌస్ డిప్యూటీ చీఫ్ ఆఫ్ స్టాఫ్ బ్రూస్ రీడ్ క్లోన్ టెక్నాలజీపై ఆందోళనలను వ్యక్తం చేశారు.

కేవలం 4 సెకన్లలోనే ఏఐ ఫేక్ వాయిస్ :

నివేదిక ప్రకారం.. రియల్, ఫేక్ వాయిస్ మధ్య తేడాను గుర్తించలేకపోతే.. ప్రజలు త్వరలో ఫోన్ కాల్‌లకు సమాధానం ఇవ్వడానికి ఇష్టపడరని పేర్కొంది. సమాజంపై తీవ్ర ప్రభావం పడుతుందని అన్నారు. భద్రతా సాఫ్ట్‌వేర్ కంపెనీ (McAfee) నుంచి వచ్చిన నివేదిక ప్రకారం, వాయిస్ క్లోనింగ్ టెక్నాలజీ కేవలం మూడు లేదా నాలుగు సెకన్ల ఆడియో ఇన్‌పుట్‌తో ఎవరి వాయిస్ అయినా క్షణాల వ్యవధిలో రీక్రియేట్ చేయగలదు. అంటే.. దాదాపు 85 శాతం వాయిస్ మ్యాచ్‌ అవుతుందని చెప్పారు.

Read Also : Rashmika Mandanna : మార్ఫింగ్ వీడియో పై రష్మిక రియాక్షన్.. చదువుతున్న టైంలో ఇలా జరిగితే..

స్కామర్‌లు మోసపూరిత స్కామ్స్ కోసం AI టెక్నాలజీని ఉపయోగించి వాయిస్ క్లోనింగ్ ఉపయోగించుకుంటున్నారు. ఫెడరల్ ట్రేడ్ కమీషన్ (FTC) ఫ్యామిలీ ఎమర్జెన్సీ స్కామ్‌లలో బాధితులను మోసగించడానికి స్కామర్‌లు వాయిస్ క్లోనింగ్‌ను ఉపయోగించిన సందర్భాలను నివేదించారు. బాధలో ఉన్న కుటుంబ సభ్యులకు సంబంధించిన ఫొటోలను క్రియేట్ చేశారు. అరిజోనాలోని ఒక తల్లికి కుమార్తె కిడ్నాప్ అయినట్టుగా స్కామర్ నుంచి వాయిస్ క్లోనింగ్‌ కాల్‌ వచ్చింది. ఆమె కుమార్తె వాయిస్ చాలా భయపడుతున్నట్టుగా రియల్‌గా ఉండటంతో ఆమె నిజమేనని నమ్మింది.

AI Voice Cloning Trick Scam : Scammers voice cloning tech

నటి రష్మీక డీప్ ఫేక్ వీడియో వైరల్ :

వాయిస్ క్లోనింగ్‌తో పాటు, డీప్‌ఫేక్ టెక్నాలజీ అనేది రియల్‌గా కనిపించే మానిప్యులేటెడ్ వీడియోలపై ఆందోళనలను పెంచింది. నటి రష్మిక మందన్న ఎలివేటర్‌లోకి ప్రవేశించినట్లు చిత్రీకరించిన వైరల్ డీప్‌ఫేక్ వీడియో బయటకు రావడం తీవ్ర దుమారాన్ని రేపింది. ఈ ఫేక్ ఏఐ వీడియో మిలియన్ల కొద్దీ వ్యూలను పొందింది. ఇంటర్నెట్‌లో ఫేక్ కంటెంట్ వ్యాప్తిని ఎదుర్కోవడానికి కొత్త చట్టపరమైన, నియంత్రణ చర్యలకు పిలుపునిచ్చింది. డీప్‌ఫేక్‌ను రూపొందించడంలో ఎలాంటి ప్రమేయం లేని జరా పటేల్ అనే మహిళ వీడియో మొదట ఇన్‌స్టాగ్రామ్‌లో షేర్ అయింది. ఆ వీడియో వెనుక ఉన్న రియల్ సోర్స్ ఎక్కడ అనేది మిస్టరీగా మిగిలిపోయింది.

ఇటీవలి సంవత్సరాలలో ఇలాంటి ఫేక్ వీడియోల ద్వారా చాలా మంది సెలబ్రిటీలు టార్గెట్ అవుతున్నారు. ఈ సంఘటన ఒక్కటే కాదు.. బాలీవుడ్ నటుడు అమితాబ్ బచ్చన్ డీప్‌ఫేక్‌లపై చట్టపరమైన చర్య తీసుకోవాల్సి ఉందని చెప్పారు. ఏఐ క్రియేట్ మోసాలతో ముప్పును పరిష్కరించడానికి చర్యలు తీసుకోవాల్సిన అవసరం ఉందన్నారు. వాయిస్ క్లోనింగ్, డీప్‌ఫేక్ టెక్నాలజీలు పురోగమిస్తున్నందున ఈ పరిణామాలు భద్రత, ప్రైవసీపరమైన సమస్యలకు దారితీసే ప్రమాదం ఉందని చెప్పారు.

Read Also : Rashmika Mandanna : రష్మిక ఫేక్ వీడియో వైరల్.. మరీ ఇంతలా మార్ఫింగ్ చేస్తారా?.. కఠిన చర్యలు తీసుకోవాలంటూ అమితాబ్ కూడా డిమాండ్..

ట్రెండింగ్ వార్తలు