AI Voice Cloning Scam : స్కామర్లతో జాగ్రత్త.. ఈ ఏఐ వాయిస్ క్లోనింగ్ ట్రిక్తో సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్లను క్రియేట్ చేయొచ్చు..!
AI Voice Cloning Trick Scam : ఆన్లైన్ స్కామర్లతో జాగ్రత్త.. మీకు తెలియకుండానే మీ వాయిస్ క్లోన్ చేస్తున్నారు తెలుసా? వాయిస్ క్లోనింగ్ ట్రిక్తో సెకన్లలోనే ఫేక్ వాయిస్లను క్రియేట్ చేయొచ్చు.
![AI Voice Cloning Scam : స్కామర్లతో జాగ్రత్త.. ఈ ఏఐ వాయిస్ క్లోనింగ్ ట్రిక్తో సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్లను క్రియేట్ చేయొచ్చు..! AI Voice Cloning Scam : స్కామర్లతో జాగ్రత్త.. ఈ ఏఐ వాయిస్ క్లోనింగ్ ట్రిక్తో సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్లను క్రియేట్ చేయొచ్చు..!](https://10tv.in/wp-content/uploads/2023/11/Scammers-are-using-voice-cloning-tech-to-trick-people.jpg)
Scammers are using voice cloning tech to trick people
AI Voice Cloning Trick Scam : అంతా ఏఐ టెక్ యుగం.. ఏది రియల్, ఏది ఫేక్ అనేది గుర్తుపట్టడం కష్టమే.. ఆన్లైన్ స్కామర్లు ఈ కొత్త టెక్నాలజీతో అనేక మోసాలకు పాల్పడుతున్నారు. ప్రస్తుత వాయిస్ క్లోనింగ్, డీప్ఫేక్ టెక్నాలజీ ఉపయోగించి అనేక మోసాలకు తెగబడుతున్నారు. ఫ్రాడ్, ప్రైవసీ ఉల్లంఘనలతో అనేక మంది వినియోగదారుల్లో మరింత భయాలను పెంచుతుంది. అయితే, స్కామర్లు ప్రజలను మోసగించడానికి వాయిస్ క్లోనింగ్ టెక్ని ఉపయోగిస్తున్నారు. సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్లను క్రియేట్ చేస్తున్నారు. ఇటీవలే హీరోయిన్ రష్మిక మందన్న(Rashmika Mandanna) కూడా ఎలివేటర్లోకి ప్రవేశించినట్లు చిత్రీకరించిన వైరల్ డీప్ఫేక్ వీడియో బయటకు వచ్చిన సంగతి తెలిసిందే. క్లోనింగ్ ట్రిక్ టెక్నాలజీ గురించి పూర్తి వివరాలను ఇప్పుడు తెలుసుకుందాం.
పబ్లిక్ ఫిగర్లపైనే స్కామర్ల టార్గెట్.. :
కృత్రిమ మేధస్సు (Artificial Intelligence) వేగంగా అభివృద్ధి చెందుతున్న ప్రపంచంలో వాయిస్ క్లోనింగ్ టెక్నాలజీ పెరుగుదల చట్టసభ సభ్యులు, భద్రతా నిపుణులలో భయాన్ని రేకెత్తించింది. స్కామర్లు ప్రముఖ వ్యక్తుల నుంచి అమాయక ప్రజల వరకు లక్ష్యంగా చేసుకుని మోసం చేసేందుకు ఇప్పటికే ఈ టెక్నాలజీని ఉపయోగించుకుంటున్నారు. అయితే, న్యూయార్క్ నగర మేయర్ ఎరిక్ ఆడమ్స్ వంటి పబ్లిక్ ఫిగర్స్ సొంత వాయిస్ను AI- రూపొందించిన క్లోన్లతో స్కామర్లు వినూత్నంగా ఉపయోగిస్తున్నారని తేలింది. అమెరికా అధ్యక్షుడు బిడెన్ అడ్మినిస్ట్రేషన్ ఏఐకి నాయకత్వం వహించే వైట్ హౌస్ డిప్యూటీ చీఫ్ ఆఫ్ స్టాఫ్ బ్రూస్ రీడ్ క్లోన్ టెక్నాలజీపై ఆందోళనలను వ్యక్తం చేశారు.
కేవలం 4 సెకన్లలోనే ఏఐ ఫేక్ వాయిస్ :
నివేదిక ప్రకారం.. రియల్, ఫేక్ వాయిస్ మధ్య తేడాను గుర్తించలేకపోతే.. ప్రజలు త్వరలో ఫోన్ కాల్లకు సమాధానం ఇవ్వడానికి ఇష్టపడరని పేర్కొంది. సమాజంపై తీవ్ర ప్రభావం పడుతుందని అన్నారు. భద్రతా సాఫ్ట్వేర్ కంపెనీ (McAfee) నుంచి వచ్చిన నివేదిక ప్రకారం, వాయిస్ క్లోనింగ్ టెక్నాలజీ కేవలం మూడు లేదా నాలుగు సెకన్ల ఆడియో ఇన్పుట్తో ఎవరి వాయిస్ అయినా క్షణాల వ్యవధిలో రీక్రియేట్ చేయగలదు. అంటే.. దాదాపు 85 శాతం వాయిస్ మ్యాచ్ అవుతుందని చెప్పారు.
Read Also : Rashmika Mandanna : మార్ఫింగ్ వీడియో పై రష్మిక రియాక్షన్.. చదువుతున్న టైంలో ఇలా జరిగితే..
స్కామర్లు మోసపూరిత స్కామ్స్ కోసం AI టెక్నాలజీని ఉపయోగించి వాయిస్ క్లోనింగ్ ఉపయోగించుకుంటున్నారు. ఫెడరల్ ట్రేడ్ కమీషన్ (FTC) ఫ్యామిలీ ఎమర్జెన్సీ స్కామ్లలో బాధితులను మోసగించడానికి స్కామర్లు వాయిస్ క్లోనింగ్ను ఉపయోగించిన సందర్భాలను నివేదించారు. బాధలో ఉన్న కుటుంబ సభ్యులకు సంబంధించిన ఫొటోలను క్రియేట్ చేశారు. అరిజోనాలోని ఒక తల్లికి కుమార్తె కిడ్నాప్ అయినట్టుగా స్కామర్ నుంచి వాయిస్ క్లోనింగ్ కాల్ వచ్చింది. ఆమె కుమార్తె వాయిస్ చాలా భయపడుతున్నట్టుగా రియల్గా ఉండటంతో ఆమె నిజమేనని నమ్మింది.
![Voice Cloning Trick Scam : స్కామర్లతో జాగ్రత్త.. ఈ ఏఐ వాయిస్ క్లోనింగ్ ట్రిక్తో సెకన్లలో ఎవరిదైనా ఫేక్ వాయిస్లను క్రియేట్ చేయొచ్చు..! Scammers are using voice cloning tech to trick people](https://diey8xpfs90ha.cloudfront.net/wp-content/uploads/2023/11/Scammers-are-using-voice-cloning-tech-to-trick-people-1.jpg)
AI Voice Cloning Trick Scam : Scammers voice cloning tech
నటి రష్మీక డీప్ ఫేక్ వీడియో వైరల్ :
వాయిస్ క్లోనింగ్తో పాటు, డీప్ఫేక్ టెక్నాలజీ అనేది రియల్గా కనిపించే మానిప్యులేటెడ్ వీడియోలపై ఆందోళనలను పెంచింది. నటి రష్మిక మందన్న ఎలివేటర్లోకి ప్రవేశించినట్లు చిత్రీకరించిన వైరల్ డీప్ఫేక్ వీడియో బయటకు రావడం తీవ్ర దుమారాన్ని రేపింది. ఈ ఫేక్ ఏఐ వీడియో మిలియన్ల కొద్దీ వ్యూలను పొందింది. ఇంటర్నెట్లో ఫేక్ కంటెంట్ వ్యాప్తిని ఎదుర్కోవడానికి కొత్త చట్టపరమైన, నియంత్రణ చర్యలకు పిలుపునిచ్చింది. డీప్ఫేక్ను రూపొందించడంలో ఎలాంటి ప్రమేయం లేని జరా పటేల్ అనే మహిళ వీడియో మొదట ఇన్స్టాగ్రామ్లో షేర్ అయింది. ఆ వీడియో వెనుక ఉన్న రియల్ సోర్స్ ఎక్కడ అనేది మిస్టరీగా మిగిలిపోయింది.
ఇటీవలి సంవత్సరాలలో ఇలాంటి ఫేక్ వీడియోల ద్వారా చాలా మంది సెలబ్రిటీలు టార్గెట్ అవుతున్నారు. ఈ సంఘటన ఒక్కటే కాదు.. బాలీవుడ్ నటుడు అమితాబ్ బచ్చన్ డీప్ఫేక్లపై చట్టపరమైన చర్య తీసుకోవాల్సి ఉందని చెప్పారు. ఏఐ క్రియేట్ మోసాలతో ముప్పును పరిష్కరించడానికి చర్యలు తీసుకోవాల్సిన అవసరం ఉందన్నారు. వాయిస్ క్లోనింగ్, డీప్ఫేక్ టెక్నాలజీలు పురోగమిస్తున్నందున ఈ పరిణామాలు భద్రత, ప్రైవసీపరమైన సమస్యలకు దారితీసే ప్రమాదం ఉందని చెప్పారు.