Deepfake ਦੇ ਖਤਰਿਆਂ ਨੂੰ ਕਿਵੇਂ ਪਛਾਣੀਏ ਜੋ ਸਭ ਤੋਂ ਵੱਧ ਮਾਇਨੇ ਰੱਖਦੇ ਹਨ
ਆਵਾਜ਼ ‘ਤੇ ਭਰੋਸੇ ਦਾ ਅੰਤ
Deepfakes ਹੁਣ ਲੈਬਾਰਟਰੀਆਂ ਤੋਂ ਨਿਕਲ ਕੇ ਕਾਰਪੋਰੇਟ ਅਤੇ ਨਿੱਜੀ ਸੁਰੱਖਿਆ ਦੇ ਮੈਦਾਨ ਵਿੱਚ ਆ ਗਏ ਹਨ। ਕਈ ਸਾਲਾਂ ਤੱਕ, ਚਰਚਾ ਸਿਰਫ਼ ਚਿਹਰੇ ਬਦਲਣ ਜਾਂ ਮਸ਼ਹੂਰ ਹਸਤੀਆਂ ਦੀਆਂ ਨਕਲਾਂ ਤੱਕ ਸੀਮਤ ਸੀ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਪਛਾਣਨਾ ਆਸਾਨ ਸੀ। ਉਹ ਦੌਰ ਹੁਣ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਅੱਜ, ਸਭ ਤੋਂ ਖਤਰਨਾਕ ਚੀਜ਼ਾਂ ਫਿਲਮੀ ਵੀਡੀਓ ਨਹੀਂ, ਸਗੋਂ ਬਹੁਤ ਹੀ ਸਟੀਕ ਆਵਾਜ਼ ਦੇ ਕਲੋਨ ਅਤੇ ਸੂਖਮ ਤਸਵੀਰਾਂ ਹਨ ਜੋ ਵਿੱਤੀ ਧੋਖਾਧੜੀ ਲਈ ਵਰਤੀਆਂ ਜਾਂਦੀਆਂ ਹਨ। ਇਨ੍ਹਾਂ ਨੂੰ ਬਣਾਉਣਾ ਹੁਣ ਬਹੁਤ ਆਸਾਨ ਹੋ ਗਿਆ ਹੈ। ਕੋਈ ਵੀ ਵਿਅਕਤੀ ਇੱਕ ਆਮ ਲੈਪਟਾਪ ਅਤੇ ਕੁਝ ਡਾਲਰਾਂ ਨਾਲ ਕਿਸੇ ਦੀ ਆਵਾਜ਼ ਦੀ ਬਿਲਕੁਲ ਸਹੀ ਨਕਲ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਬਦਲਾਅ ਇਸ ਸਮੱਸਿਆ ਨੂੰ ਪਿਛਲੇ ਸਾਲ ਦੇ ਮੁਕਾਬਲੇ ਕਿਤੇ ਜ਼ਿਆਦਾ ਨਿੱਜੀ ਅਤੇ ਜ਼ਰੂਰੀ ਬਣਾਉਂਦਾ ਹੈ। ਅਸੀਂ ਹੁਣ ਹਾਲੀਵੁੱਡ ਫਿਲਮਾਂ ਵਿੱਚ ਗਲਤੀਆਂ ਨਹੀਂ ਲੱਭ ਰਹੇ, ਸਗੋਂ ਅਸੀਂ ਆਪਣੀ ਰੋਜ਼ਾਨਾ ਗੱਲਬਾਤ ਵਿੱਚ ਝੂਠ ਲੱਭ ਰਹੇ ਹਾਂ। ਇਹ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਤੋਂ ਵੱਧ ਸਾਡੇ ਦੁਆਰਾ ਜਾਣਕਾਰੀ ਨੂੰ ਦੇਖਣ ਅਤੇ ਸਮਝਣ ਦੇ ਤਰੀਕੇ ਵਿੱਚ ਇੱਕ ਬੁਨਿਆਦੀ ਬਦਲਾਅ ਹੈ।
ਨਕਲੀ ਧੋਖੇਬਾਜ਼ੀ ਦੀ ਤਕਨੀਕ
ਇਹ ਤਕਨਾਲੋਜੀ ਉਹਨਾਂ ਜਨਰੇਟਿਵ ਮਾਡਲਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਮਨੁੱਖੀ ਭਾਵਨਾਵਾਂ ਦੇ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟਾਂ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤਾ ਗਿਆ ਹੈ। ਇਸ ਦੇ ਮੂਲ ਵਿੱਚ ਨਿਊਰਲ ਨੈੱਟਵਰਕ ਹਨ ਜੋ ਕਿਸੇ ਵਿਅਕਤੀ ਦੀ ਆਵਾਜ਼ ਦੇ ਲਹਿਜੇ, ਪਿੱਚ ਅਤੇ ਭਾਵਨਾਵਾਂ ਨੂੰ ਸਮਝ ਸਕਦੇ ਹਨ। ਪੁਰਾਣੇ ਟੈਕਸਟ-ਟੂ-ਸਪੀਚ ਸਿਸਟਮਾਂ ਦੇ ਉਲਟ, ਇਹ ਆਧੁਨਿਕ ਸਿਸਟਮ ਸਾਹ ਲੈਣ ਦੀ ਆਵਾਜ਼ ਅਤੇ ਰੁਕਾਵਟਾਂ ਨੂੰ ਵੀ ਫੜ ਲੈਂਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਆਵਾਜ਼ ਅਸਲੀ ਲੱਗਦੀ ਹੈ। ਇਸੇ ਲਈ ਵੌਇਸ ਕਲੋਨਿੰਗ ਅੱਜਕੱਲ੍ਹ ਸਕੈਮਰਾਂ ਲਈ ਸਭ ਤੋਂ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹਥਿਆਰ ਹੈ। ਇੱਕ ਧੋਖੇਬਾਜ਼ ਸੋਸ਼ਲ ਮੀਡੀਆ ਤੋਂ ਵੀਡੀਓ ਲੈ ਕੇ ਮਿੰਟਾਂ ਵਿੱਚ ਆਵਾਜ਼ ਦਾ ਕਲੋਨ ਬਣਾ ਸਕਦਾ ਹੈ।
ਵਿਜ਼ੂਅਲ ਪੱਖੋਂ ਵੀ, ਹਮਲਾਵਰ ਹੁਣ