ਕੀ ਕਾਨੂੰਨ ਅਤੇ ਪਲੇਟਫਾਰਮ ਡੀਪਫੇਕਸ ਨੂੰ ਰੋਕ ਸਕਣਗੇ?
ਕੀ ਤੁਸੀਂ ਕਦੇ ਕਿਸੇ ਮਸ਼ਹੂਰ ਹਸਤੀ ਦੀ ਕੋਈ ਅਜੀਬੋ-ਗਰੀਬ ਵੀਡੀਓ ਦੇਖੀ ਹੈ ਅਤੇ ਸੋਚਿਆ ਹੈ ਕਿ ਕੀ ਤੁਹਾਡੀਆਂ ਅੱਖਾਂ ਤੁਹਾਨੂੰ ਧੋਖਾ ਦੇ ਰਹੀਆਂ ਹਨ? ਤੁਸੀਂ ਇਕੱਲੇ ਨਹੀਂ ਹੋ। ਅਸੀਂ ਅਜਿਹੇ ਸਮੇਂ ਵਿੱਚ ਰਹਿ ਰਹੇ ਹਾਂ ਜਿੱਥੇ ਟੈਕਨਾਲੋਜੀ ਕਿਸੇ ਨੂੰ ਵੀ ਕੁਝ ਵੀ ਕਰਦੇ ਹੋਏ ਦਿਖਾ ਸਕਦੀ ਹੈ। ਇਹ ਜਾਦੂ ਵਰਗਾ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ ਅਸਲੀਅਤ ਬਾਰੇ ਵੱਡੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦਾ ਹੈ। ਚੰਗੀ ਖ਼ਬਰ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆ ਇਸ ਚੁਣੌਤੀ ਪ੍ਰਤੀ ਜਾਗ ਰਹੀ ਹੈ। ਵੱਡੀਆਂ ਟੈਕ ਕੰਪਨੀਆਂ ਤੋਂ ਲੈ ਕੇ ਸਥਾਨਕ ਸਰਕਾਰਾਂ ਤੱਕ, ਸਾਰੇ ਮਿਹਨਤ ਕਰ ਰਹੇ ਹਨ ਤਾਂ ਜੋ ਅਸੀਂ ਸਕ੍ਰੀਨ ‘ਤੇ ਜੋ ਦੇਖਦੇ ਹਾਂ ਉਸ ‘ਤੇ ਭਰੋਸਾ ਕਰ ਸਕੀਏ। ਇੱਥੇ ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਭਾਵੇਂ ਟੈਕਨਾਲੋਜੀ ਸਮਾਰਟ ਹੋ ਰਹੀ ਹੈ, ਪਰ ਸੁਰੱਖਿਅਤ ਰਹਿਣ ਦੇ ਸਾਡੇ ਟੂਲ ਹੋਰ ਵੀ ਤੇਜ਼ੀ ਨਾਲ ਵਧ ਰਹੇ ਹਨ। ਇਹ ਸਭ ਸੰਤੁਲਨ ਬਾਰੇ ਹੈ। ਅਸੀਂ AI ਦੇ ਰਚਨਾਤਮਕ ਮਜ਼ੇ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਣਾ ਚਾਹੁੰਦੇ ਹਾਂ ਅਤੇ ਇਹ ਵੀ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਸ਼ਰਾਰਤੀ ਅਨਸਰ ਸਾਨੂੰ ਧੋਖਾ ਦੇਣ ਲਈ ਇਸਦੀ ਵਰਤੋਂ ਨਾ ਕਰ ਸਕਣ। ਇਹ ਗਾਈਡ ਤੁਹਾਨੂੰ ਇਹ ਸਮਝਣ ਵਿੱਚ ਮਦਦ ਕਰੇਗੀ ਕਿ ਕਿਵੇਂ ਪਲੇਟਫਾਰਮ ਅਤੇ ਕਾਨੂੰਨ ਮਿਲ ਕੇ ਇੰਟਰਨੈੱਟ ਨੂੰ ਸਾਰਿਆਂ ਲਈ ਇੱਕ ਖੁਸ਼ਹਾਲ ਥਾਂ ਬਣਾ ਰਹੇ ਹਨ।
ਡੀਪਫੇਕ (deepfake) ਨੂੰ ਇੱਕ ਡਿਜੀਟਲ ਕਠਪੁਤਲੀ ਵਾਂਗ ਸਮਝੋ। ਪੁਰਾਣੇ ਦਿਨਾਂ ਵਿੱਚ, ਜੇਕਰ ਤੁਸੀਂ ਫ਼ਿਲਮ ਬਣਾਉਣੀ ਹੁੰਦੀ ਸੀ, ਤਾਂ ਤੁਹਾਨੂੰ ਐਕਟਰਾਂ, ਪਹਿਰਾਵੇ ਅਤੇ ਇੱਕ ਵੱਡੇ ਸੈੱਟ ਦੀ ਲੋੜ ਹੁੰਦੀ ਸੀ। ਹੁਣ, ਇੱਕ ਕੰਪਿਊਟਰ ਸਿਰਫ਼ ਕੁਝ ਫ਼ੋਟੋਆਂ ਜਾਂ ਆਵਾਜ਼ ਦੀ ਛੋਟੀ ਜਿਹੀ ਰਿਕਾਰਡਿੰਗ ਲੈ ਕੇ ਇੱਕ ਪੂਰੀ ਨਵੀਂ ਵੀਡੀਓ ਬਣਾ ਸਕਦਾ ਹੈ। ਇਹ ਨਿਊਰਲ ਨੈੱਟਵਰਕਸ (neural networks) ਨਾਮਕ ਚੀਜ਼ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਕੰਮ ਕਰਦਾ ਹੈ। ਕਲਪਨਾ ਕਰੋ ਕਿ ਦੋ ਕੰਪਿਊਟਰ ਕੈਚ-ਕੈਚ ਖੇਡ ਰਹੇ ਹਨ। ਇੱਕ ਕੰਪਿਊਟਰ ਨਕਲੀ ਤਸਵੀਰ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦਾ ਹੈ, ਅਤੇ ਦੂਜਾ ਕੰਪਿਊਟਰ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦਾ ਹੈ ਕਿ ਕੀ ਇਹ ਅਸਲੀ ਹੈ। ਉਹ ਅਜਿਹਾ ਲੱਖਾਂ ਵਾਰ ਕਰਦੇ ਹਨ ਜਦੋਂ ਤੱਕ ਨਕਲੀ ਤਸਵੀਰ ਇੰਨੀ ਵਧੀਆ ਨਹੀਂ ਬਣ ਜਾਂਦੀ ਕਿ ਦੂਜਾ ਕੰਪਿਊਟਰ ਫਰਕ ਨਹੀਂ ਦੱਸ ਪਾਉਂਦਾ। ਇਸ ਤਰ੍ਹਾਂ ਸਾਨੂੰ ਉਹ ਬਹੁਤ ਹੀ ਅਸਲੀ ਲੱਗਣ ਵਾਲੀਆਂ ਵੀਡੀਓਜ਼ ਮਿਲਦੀਆਂ ਹਨ। ਇਹ ਸਿਰਫ਼ ਚਿਹਰਿਆਂ ਬਾਰੇ ਨਹੀਂ ਹੈ; ਵੌਇਸ ਕਲੋਨਿੰਗ (voice cloning) ਇਸ ਪਰਿਵਾਰ ਦਾ ਸਭ ਤੋਂ ਨਵਾਂ ਹਿੱਸਾ ਹੈ। ਇੱਕ ਕੰਪਿਊਟਰ ਤੁਹਾਨੂੰ ਸਿਰਫ਼ ਕੁਝ ਸੈਕਿੰਡਾਂ ਲਈ ਬੋਲਦੇ ਹੋਏ ਸੁਣ ਸਕਦਾ ਹੈ ਅਤੇ ਫਿਰ ਤੁਹਾਡੇ ਬਿਲਕੁਲ ਉਸੇ ਅੰਦਾਜ਼ ਵਿੱਚ ਕੁਝ ਵੀ ਦੁਹਰਾ ਸਕਦਾ ਹੈ। ਇਹ ਮਜ਼ੇਦਾਰ ਮੀਮਜ਼ ਬਣਾਉਣ ਜਾਂ ਆਪਣੀ ਆਵਾਜ਼ ਗੁਆ ਚੁੱਕੇ ਲੋਕਾਂ ਦੀ ਮਦਦ ਕਰਨ ਲਈ ਬਹੁਤ ਵਧੀਆ ਹੈ, ਪਰ ਇਸਦੀ ਵਰਤੋਂ ਗਲਤ ਕੰਮਾਂ ਲਈ ਵੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।ਟੈਕਨਾਲੋਜੀ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਹਥੌੜੇ ਵਰਗਾ ਸੰਦ ਹੈ। ਤੁਸੀਂ ਹਥੌੜੇ ਦੀ ਵਰਤੋਂ ਇੱਕ ਸੁੰਦਰ ਘਰ ਬਣਾਉਣ ਲਈ ਕਰ ਸਕਦੇ ਹੋ ਜਾਂ ਖਿੜਕੀ ਤੋੜਨ ਲਈ। ਇਸ ਵੇਲੇ, ਅਸੀਂ ਸਾਰੇ ਸਹੀ ਵਾੜ ਲਗਾਉਣੀ ਸਿੱਖ ਰਹੇ ਹਾਂ ਤਾਂ ਜੋ ਹਰ ਕੋਈ ਆਪਣੇ ਨਵੇਂ ਡਿਜੀਟਲ ਖਿਡੌਣਿਆਂ ਨਾਲ ਖੇਡਦੇ ਹੋਏ ਸੁਰੱਖਿਅਤ ਰਹੇ। ਇਹ ਮੀਡੀਆ ਬਾਰੇ ਸਾਡੀ ਸੋਚ ਵਿੱਚ ਇੱਕ ਵੱਡੀ ਤਬਦੀਲੀ ਹੈ, ਪਰ ਇਹ ਕਹਾਣੀਆਂ ਸੁਣਾਉਣ ਅਤੇ ਦੁਨੀਆ ਭਰ ਵਿੱਚ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨ ਦੇ ਰਚਨਾਤਮਕ ਤਰੀਕਿਆਂ ਦਾ ਇੱਕ ਮੌਕਾ ਵੀ ਹੈ। ਇਹ ਸਮਝ ਕੇ ਕਿ ਇਹ ਡਿਜੀਟਲ ਕਠਪੁਤਲੀਆਂ ਕਿਵੇਂ ਬਣਾਈਆਂ ਜਾਂਦੀਆਂ ਹਨ, ਅਸੀਂ ਆਪਣੇ ਫੀਡ (feed) ਵਿੱਚ ਉਹਨਾਂ ਨੂੰ ਪਛਾਣਨ ਵਿੱਚ ਬਹੁਤ ਬਿਹਤਰ ਹੋ ਸਕਦੇ ਹਾਂ। ਇਹ ਸਭ ਉਤਸੁਕ ਰਹਿਣ ਅਤੇ ਉਹਨਾਂ ਛੋਟੀਆਂ ਗੱਲਾਂ ‘ਤੇ ਨਜ਼ਰ ਰੱਖਣ ਬਾਰੇ ਹੈ ਜੋ ਭੇਦ ਖੋਲ੍ਹ ਦਿੰਦੀਆਂ ਹਨ।
ਚੀਜ਼ਾਂ ਨੂੰ ਇਮਾਨਦਾਰ ਰੱਖਣ ਲਈ ਵਿਸ਼ਵਵਿਆਪੀ ਕੋਸ਼ਿਸ਼ਾਂ
ਜਦੋਂ ਅਸੀਂ ਡੀਪਫੇਕਸ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਇਹ ਸਿਰਫ਼ ਇੱਕ ਸਥਾਨਕ ਮੁੱਦਾ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਵਿਸ਼ਵਵਿਆਪੀ ਚਰਚਾ ਹੈ। ਦੁਨੀਆ ਭਰ ਦੇ ਦੇਸ਼ ਅਜਿਹੇ ਨਿਯਮ ਬਣਾਉਣ ਵੱਲ ਦੇਖ ਰਹੇ ਹਨ ਜੋ ਅਸਲ ਵਿੱਚ ਕੰਮ ਕਰਨ। ਇੱਕ ਸਿਆਸਤਦਾਨ ਲਈ ਸੁਰੱਖਿਅਤ ਰਹਿਣ ਬਾਰੇ ਭਾਸ਼ਣ ਦੇਣਾ ਇੱਕ ਗੱਲ ਹੈ, ਪਰ ਇੱਕ ਅਜਿਹਾ ਕਾਨੂੰਨ ਹੋਣਾ ਦੂਜੀ ਗੱਲ ਹੈ ਜੋ ਕਹਿੰਦਾ ਹੈ ਕਿ ਕੰਪਨੀ ਨੂੰ AI ਸਮੱਗਰੀ ‘ਤੇ ਲੇਬਲ ਲਗਾਉਣਾ ਪਵੇਗਾ ਜਾਂ ਵੱਡਾ ਜੁਰਮਾਨਾ ਭਰਨਾ ਪਵੇਗਾ। ਇੱਥੇ ਚੀਜ਼ਾਂ ਅਸਲ ਵਿੱਚ ਦਿਲਚਸਪ ਹੋ ਰਹੀਆਂ ਹਨ। ਅਸੀਂ ਸਿਰਫ਼ ਸਮੱਸਿਆ ਬਾਰੇ ਗੱਲ ਕਰਨ ਦੀ ਬਜਾਏ ਨਿਯਮ ਤੋੜਨ ਵਾਲਿਆਂ ਲਈ ਅਸਲ ਨਤੀਜਿਆਂ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ। ਇਹ ਹਰ ਕਿਸੇ ਲਈ ਆਪਣੇ ਵਿਚਾਰ ਸਾਂਝੇ ਕਰਨ ਲਈ ਇੱਕ ਸੁਰੱਖਿਅਤ ਥਾਂ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ।
YouTube ਅਤੇ Meta ਵਰਗੇ ਪਲੇਟਫਾਰਮ ਵੀ ਆਪਣੀ ਗੇਮ ਵਧਾ ਰਹੇ ਹਨ। ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਬਣਾ ਰਹੇ ਹਨ ਜੋ ਆਪਣੇ ਆਪ ਪਛਾਣ ਸਕਦੇ ਹਨ ਕਿ ਕਦੋਂ ਕਿਸੇ ਵੀਡੀਓ ਨੂੰ AI ਦੁਆਰਾ ਬਦਲਿਆ ਗਿਆ ਹੈ। ਇਹ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਬਹੁਤ ਵਧੀਆ ਖ਼ਬਰ ਹੈ ਕਿਉਂਕਿ ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸਾਨੂੰ ਇਹ ਜਾਣਨ ਲਈ ਟੈਕ ਐਕਸਪਰਟ ਬਣਨ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ ਕਿ ਅਸੀਂ ਕੀ ਦੇਖ ਰਹੇ ਹਾਂ। ਜੇਕਰ ਕੋਈ ਵੀਡੀਓ ਡੀਪਫੇਕ ਹੈ, ਤਾਂ ਪਲੇਟਫਾਰਮ ਸਾਨੂੰ ਦੱਸਣ ਲਈ ਉਸ ‘ਤੇ ਇੱਕ ਛੋਟਾ ਜਿਹਾ ਲੇਬਲ ਲਗਾ ਸਕਦਾ ਹੈ। ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਪਾਰਦਰਸ਼ਤਾ ਹੀ ਸਾਨੂੰ ਇੰਟਰਨੈੱਟ ਨੂੰ ਇੱਕ ਦੋਸਤਾਨਾ ਮਾਹੌਲ ਬਣਾਈ ਰੱਖਣ ਲਈ ਚਾਹੀਦੀ ਹੈ। ਤੁਸੀਂ ai technology trends ‘ਤੇ ਨਵੀਨਤਮ ਅਪਡੇਟਸ ਦੇਖ ਕੇ ਇਸ ਬਾਰੇ ਹੋਰ ਜਾਣ ਸਕਦੇ ਹੋ ਕਿ ਇਹ ਟੂਲ ਕਿਵੇਂ ਬਣਾਏ ਜਾ ਰਹੇ ਹਨ।
ਇਹਨਾਂ ਨਿਯਮਾਂ ਦਾ ਪ੍ਰਭਾਵ ਬਹੁਤ ਵੱਡਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਚੋਣਾਂ ਦੌਰਾਨ, ਇਹ ਕਾਨੂੰਨ ਯਕੀਨੀ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹਨ ਕਿ ਵੋਟਰਾਂ ਨੂੰ ਉਮੀਦਵਾਰਾਂ ਤੋਂ ਅਸਲੀ ਜਾਣਕਾਰੀ ਮਿਲ ਰਹੀ ਹੈ। ਇਹ ਕਿਸੇ ਨੂੰ ਕਿਸੇ ਨੇਤਾ ਦੀ ਨਕਲੀ ਵੀਡੀਓ ਬਣਾਉਣ ਤੋਂ ਰੋਕਦਾ ਹੈ। ਸਪੱਸ਼ਟ ਨਿਯਮਾਂ ਅਤੇ ਅਸਲ ਜ਼ੁਰਮਾਨਿਆਂ ਨਾਲ, ਅਸੀਂ ਆਪਣੇ ਭਾਈਚਾਰਿਆਂ ਦੀ ਰੱਖਿਆ ਕਰ ਸਕਦੇ ਹਾਂ। ਇਹ ਟੈਕਨਾਲੋਜੀ ਬਣਾਉਣ ਵਾਲੇ ਲੋਕਾਂ, ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਵਾਲੇ ਲੋਕਾਂ ਅਤੇ ਕਾਨੂੰਨ ਬਣਾਉਣ ਵਾਲੇ ਲੋਕਾਂ ਵਿਚਕਾਰ ਇੱਕ ਟੀਮ ਵਰਕ ਹੈ।
ਡੀਪਫੇਕਸ ਸਾਡੀ ਰੋਜ਼ਾਨਾ ਜ਼ਿੰਦਗੀ ਨੂੰ ਕਿਵੇਂ ਪ੍ਰਭਾਵਿਤ ਕਰਦੇ ਹਨ
ਆਓ ਸਾਰਾਹ ਦੀ ਜ਼ਿੰਦਗੀ ਦੇ ਇੱਕ ਦਿਨ ‘ਤੇ ਨਜ਼ਰ ਮਾਰੀਏ, ਜੋ ਇੱਕ ਛੋਟਾ ਕਾਰੋਬਾਰ ਚਲਾਉਂਦੀ ਹੈ। ਸਾਰਾਹ ਨੂੰ ਇੱਕ ਫ਼ੋਨ ਕਾਲ ਆਉਂਦੀ ਹੈ ਜੋ ਬਿਲਕੁਲ ਉਸਦੇ ਬੈਂਕ ਮੈਨੇਜਰ ਵਰਗੀ ਲੱਗਦੀ ਹੈ। ਆਵਾਜ਼ ਬਿਲਕੁਲ ਸਹੀ ਹੈ, ਅਤੇ ਦੂਜੇ ਪਾਸੇ ਵਾਲਾ ਵਿਅਕਤੀ ਉਸਦਾ ਨਾਮ ਅਤੇ ਕਾਰੋਬਾਰ ਦੇ ਵੇਰਵੇ ਜਾਣਦਾ ਹੈ। ਉਹ ਉਸਨੂੰ ਇੱਕ ਛੋਟੀ ਜਿਹੀ ਗਲਤੀ ਨੂੰ ਠੀਕ ਕਰਨ ਲਈ ਜਲਦੀ ਕੁਝ ਪੈਸੇ ਟ੍ਰਾਂਸਫਰ ਕਰਨ ਲਈ ਕਹਿੰਦੇ ਹਨ। ਕਿਉਂਕਿ ਆਵਾਜ਼ ਇੰਨੀ ਅਸਲੀ ਲੱਗਦੀ ਹੈ, ਸਾਰਾਹ ਲਗਭਗ ਅਜਿਹਾ ਕਰ ਹੀ ਦਿੰਦੀ ਹੈ। ਪਰ ਫਿਰ ਉਸਨੂੰ ਯਾਦ ਆਉਂਦਾ ਹੈ ਕਿ ਉਸਦਾ ਬੈਂਕ ਮੈਨੇਜਰ ਆਮ ਤੌਰ ‘ਤੇ ਉਸਨੂੰ ਦੂਜੇ ਨੰਬਰ ਤੋਂ ਫ਼ੋਨ ਕਰਦਾ ਹੈ। ਇਹ ਵੌਇਸ ਕਲੋਨਿੰਗ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਕੀਤੀ ਜਾਣ ਵਾਲੀ ਧੋਖਾਧੜੀ ਦੀ ਇੱਕ ਅਸਲ ਉਦਾਹਰਨ ਹੈ।
ਇਹੀ ਕਾਰਨ ਹੈ ਕਿ ਮੌਜੂਦਾ ਫੋਕਸ ਸਿਰਫ਼ ਫ਼ਿਲਮੀ ਉਦਾਹਰਨਾਂ ਦੀ ਬਜਾਏ ਵਿਹਾਰਕ ਧੋਖਾਧੜੀ ‘ਤੇ ਹੈ। ਹਾਲਾਂਕਿ ਕਿਸੇ ਮੂਵੀ ਸਟਾਰ ਨੂੰ ਅਜਿਹੀ ਭੂਮਿਕਾ ਵਿੱਚ ਦੇਖਣਾ ਮਜ਼ੇਦਾਰ ਹੈ ਜੋ ਉਸਨੇ ਕਦੇ ਨਹੀਂ ਨਿਭਾਈ, ਪਰ ਅਸਲ ਖ਼ਤਰਾ ਸਾਡੇ ਬੈਂਕ ਖਾਤਿਆਂ ਅਤੇ ਸਾਡੀ ਨਿੱਜੀ ਸੁਰੱਖਿਆ ਲਈ ਹੈ। ਠੱਗ ਹਰ ਰੋਜ਼ ਲੋਕਾਂ ਨੂੰ ਧੋਖਾ ਦੇਣ ਲਈ ਇਹਨਾਂ ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੇ ਹਨ। ਹਾਲਾਂਕਿ, ਕਿਉਂਕਿ ਅਸੀਂ ਇਸ ਬਾਰੇ ਜ਼ਿਆਦਾ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਸਾਰਾਹ ਵਰਗੇ ਲੋਕ ਵਧੇਰੇ ਜਾਗਰੂਕ ਹੋ ਰਹੇ ਹਨ। ਇਹ ਜਾਗਰੂਕਤਾ ਹੀ ਸਾਡਾ ਸਭ ਤੋਂ ਵਧੀਆ ਬਚਾਅ ਹੈ। ਪਲੇਟਫਾਰਮ ਵੀ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਨਕਲੀ ਕਾਲਾਂ ਅਤੇ ਸੰਦੇਸ਼ਾਂ ਨੂੰ ਸਾਡੇ ਤੱਕ ਪਹੁੰਚਣ ਤੋਂ ਪਹਿਲਾਂ ਹੀ ਬਲੌਕ ਕਰਨ ਲਈ ਕੰਮ ਕਰ ਰਹੇ ਹਨ।
ਕਲਪਨਾ ਕਰੋ ਕਿ ਇੱਕ ਕਲਾਕਾਰ ਇੱਕ ਮਜ਼ੇਦਾਰ ਪੈਰੋਡੀ ਵੀਡੀਓ ਬਣਾਉਣ ਲਈ ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਇਹ ਇਸ ਟੈਕਨਾਲੋਜੀ ਦਾ ਉਜਲਾ ਪੱਖ ਹੈ। ਜਦੋਂ ਤੱਕ ਬਣਾਉਣ ਵਾਲਾ AI ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਇਮਾਨਦਾਰ ਹੈ, ਇਹ ਲੋਕਾਂ ਦਾ ਮਨੋਰੰਜਨ ਕਰਨ ਦਾ ਇੱਕ ਸ਼ਾਨਦਾਰ ਤਰੀਕਾ ਹੋ ਸਕਦਾ ਹੈ। ਨਵੇਂ ਕਾਨੂੰਨਾਂ ਦਾ ਉਦੇਸ਼ ਇਸ ਰਚਨਾਤਮਕਤਾ ਨੂੰ ਰੋਕਣਾ ਨਹੀਂ ਹੈ, ਬਲਕਿ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਹੈ ਕਿ ਇਹ ਅਸਲੀਅਤ ਨਾਲ ਰਲਗਡ ਨਾ ਹੋਵੇ। ਜੇਕਰ ਤੁਸੀਂ ਇਹਨਾਂ ਤਬਦੀਲੀਆਂ ਬਾਰੇ ਅਪਡੇਟ ਰਹਿਣਾ ਚਾਹੁੰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਵਿਸ਼ਵਵਿਆਪੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣਾਂ ਲਈ BBC technology news ਨੂੰ ਫਾਲੋ ਕਰ ਸਕਦੇ ਹੋ। ਚੀਜ਼ਾਂ ਤੇਜ਼ੀ ਨਾਲ ਬਦਲ ਰਹੀਆਂ ਹਨ, ਇਸ ਲਈ ਜਾਣੂ ਰਹਿਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਵੌਇਸ ਕਲੋਨਿੰਗ ਦੀ ਵਧ ਰਹੀ ਚੁਣੌਤੀ
ਵੌਇਸ ਕਲੋਨਿੰਗ ਖਾਸ ਤੌਰ ‘ਤੇ ਮੁਸ਼ਕਲ ਹੈ ਕਿਉਂਕਿ ਅਸੀਂ ਇਹ ਪਛਾਣਨ ਲਈ ਆਪਣੇ ਕੰਨਾਂ ‘ਤੇ ਬਹੁਤ ਭਰੋਸਾ ਕਰਦੇ ਹਾਂ ਕਿ ਕੌਣ ਬੋਲ ਰਿਹਾ ਹੈ। ਜਦੋਂ ਅਸੀਂ ਕੋਈ ਵੀਡੀਓ ਦੇਖਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਲਾਈਟਿੰਗ ਜਾਂ ਹੋਰ ਕਮੀਆਂ ਦੇਖ ਸਕਦੇ ਹਾਂ, ਪਰ ਇੱਕ ਆਵਾਜ਼ ਬਹੁਤ ਯਕੀਨਨ ਹੋ ਸਕਦੀ ਹੈ। ਇਸ ਲਈ ਬਹੁਤ ਸਾਰੀਆਂ ਕੰਪਨੀਆਂ ਹੁਣ ਆਡੀਓ ਫਾਈਲਾਂ ਵਿੱਚ ਡਿਜੀਟਲ ਦਸਤਖਤ ਜੋੜਨ ਦੇ ਤਰੀਕਿਆਂ ਵੱਲ ਦੇਖ ਰਹੀਆਂ ਹਨ। ਇਹ ਇੱਕ ਗੁਪਤ ਕੋਡ ਵਾਂਗ ਹੈ ਜੋ ਸਾਬਤ ਕਰਦਾ ਹੈ ਕਿ ਆਵਾਜ਼ ਅਸਲੀ ਹੈ। ਇਹ ਇੱਕ ਚਲਾਕ ਹੱਲ ਹੈ ਜੋ ਉਸ ਸਮੱਸਿਆ ਨੂੰ ਠੀਕ ਕਰਨ ਲਈ ਟੈਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ ਜੋ ਟੈਕਨਾਲੋਜੀ ਨੇ ਹੀ ਪੈਦਾ ਕੀਤੀ ਹੈ।
ਅਸੀਂ ਆਪਣੀ ਨਿੱਜਤਾ ਦੀ ਰੱਖਿਆ ਕਰਨ ਅਤੇ ਇੰਟਰਨੈੱਟ ਨੂੰ ਨੁਕਸਾਨਦੇਹ ਨਕਲ ਤੋਂ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਦੇ ਵਿਚਕਾਰ ਸੰਪੂਰਨ ਸੰਤੁਲਨ ਕਿਵੇਂ ਲੱਭ ਸਕਦੇ ਹਾਂ? ਇਹ ਇੱਕ ਵੱਡਾ ਸਵਾਲ ਹੈ, ਪਰ ਇਸਨੂੰ ਪੁੱਛਣਾ ਸਾਨੂੰ ਸਹੀ ਦਿਸ਼ਾ ਵਿੱਚ ਲੈ ਜਾਂਦਾ ਹੈ। ਅਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਸਾਡੇ ਦੁਆਰਾ ਬਣਾਏ ਗਏ ਨਿਯਮ ਲੋਕਾਂ ਨੂੰ ਰਚਨਾਤਮਕ ਹੋਣ ਤੋਂ ਨਾ ਰੋਕਣ। ਉਸੇ ਸਮੇਂ, ਸਾਨੂੰ ਧੋਖਾਧੜੀ ਦੇ ਵਿਰੁੱਧ ਮਜ਼ਬੂਤ ਸੁਰੱਖਿਆ ਦੀ ਲੋੜ ਹੈ। ਇਹ ਕਾਰ ਵਿੱਚ ਸੀਟਬੈਲਟ ਲਗਾਉਣ ਵਰਗਾ ਹੈ। ਇਹ ਸ਼ੁਰੂ ਵਿੱਚ ਥੋੜਾ ਜਿਹਾ ਪਾਬੰਦੀਸ਼ੁਦਾ ਮਹਿਸੂਸ ਹੋ ਸਕਦਾ ਹੈ, ਪਰ ਇਹ ਸਫ਼ਰ ਦਾ ਅਨੰਦ ਲੈਂਦੇ ਹੋਏ ਸਾਰਿਆਂ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਲਈ ਹੈ। ਕੋਈ ਸਵਾਲ, ਸੁਝਾਅ, ਜਾਂ ਲੇਖ ਦਾ ਵਿਚਾਰ ਹੈ? ਸਾਡੇ ਨਾਲ ਸੰਪਰਕ ਕਰੋ।
ਪਾਵਰ ਯੂਜ਼ਰਸ ਲਈ ਗੀਕ ਸੈਕਸ਼ਨ (Geek Section)
ਉਹਨਾਂ ਲਈ ਜੋ ਡੂੰਘਾਈ ਵਿੱਚ ਜਾਣਾ ਪਸੰਦ ਕਰਦੇ ਹਨ, ਆਓ ਗੱਲ ਕਰੀਏ ਕਿ ਇਹ ਸਭ ਪਰਦੇ ਦੇ ਪਿੱਛੇ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ। ਸਭ ਤੋਂ ਦਿਲਚਸਪ ਵਿਕਾਸ ਵਿੱਚੋਂ ਇੱਕ C2PA ਸਟੈਂਡਰਡ ਹੈ। ਇਹ ਇੱਕ ਤਕਨੀਕੀ ਵਿਸ਼ੇਸ਼ਤਾ ਹੈ ਜੋ ਬਣਾਉਣ ਵਾਲਿਆਂ ਨੂੰ ਉਹਨਾਂ ਦੀਆਂ ਫਾਈਲਾਂ ਨਾਲ ਮੈਟਾਡਾਟਾ (metadata) ਜੋੜਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀ ਹੈ। ਇਹ ਮੈਟਾਡਾਟਾ ਇੱਕ ਡਿਜੀਟਲ ਟ੍ਰੇਲ ਵਜੋਂ ਕੰਮ ਕਰਦਾ ਹੈ, ਜੋ ਇਹ ਦਿਖਾਉਂਦਾ ਹੈ ਕਿ ਇੱਕ ਤਸਵੀਰ ਜਾਂ ਵੀਡੀਓ ਕਿੱਥੋਂ ਆਈ ਹੈ। ਬਹੁਤ ਸਾਰੀਆਂ ਵੱਡੀਆਂ ਕੈਮਰਾ ਕੰਪਨੀਆਂ ਪਹਿਲਾਂ ਹੀ ਇਸਨੂੰ ਆਪਣੇ ਉਤਪਾਦਾਂ ਵਿੱਚ ਬਣਾਉਣਾ ਸ਼ੁਰੂ ਕਰ ਰਹੀਆਂ ਹਨ। ਇਹ ਡਿਜੀਟਲ ਪਾਰਦਰਸ਼ਤਾ ਲਈ ਇੱਕ ਬਹੁਤ ਵੱਡਾ ਕਦਮ ਹੈ।
ਜਦੋਂ ਪਲੇਟਫਾਰਮਾਂ ਦੀ ਗੱਲ ਆਉਂਦੀ ਹੈ, ਤਾਂ ਉਹ ਸਮੱਗਰੀ ਨੂੰ ਸਕੈਨ ਕਰਨ ਲਈ ਸ਼ਕਤੀਸ਼ਾਲੀ APIs ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੇ ਹਨ। ਕੁਝ ਨਵੇਂ ਕੰਪਿਊਟਰਾਂ ਅਤੇ ਫ਼ੋਨਾਂ ਵਿੱਚ ਵਿਸ਼ੇਸ਼ ਚਿੱਪਾਂ ਹੁੰਦੀਆਂ ਹਨ ਜੋ ਸਿਰਫ਼ AI ਕੰਮਾਂ ਲਈ ਤਿਆਰ ਕੀਤੀਆਂ ਗਈਆਂ ਹਨ। ਇਹ ਚਿੱਪਾਂ ਤੁਹਾਡੇ ਡੇਟਾ ਨੂੰ ਕਲਾਊਡ (cloud) ਵਿੱਚ ਭੇਜੇ ਬਿਨਾਂ ਤੁਹਾਡੀ ਡਿਵਾਈਸ ‘ਤੇ ਹੀ ਡੀਪਫੇਕਸ ਦਾ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੀਆਂ ਹਨ। ਇੱਥੇ ਕੁਝ ਮੁੱਖ ਖੇਤਰ ਹਨ ਜਿੱਥੇ ਟੈਕਨਾਲੋਜੀ ਮਜ਼ਬੂਤੀ ਨਾਲ ਖੜ੍ਹੀ ਹੈ:
- ਡਿਜੀਟਲ ਵਾਟਰਮਾਰਕਿੰਗ ਜੋ ਫਾਈਲ ਨੂੰ ਕੱਟਣ (crop) ਤੋਂ ਬਾਅਦ ਵੀ ਬਚੀ ਰਹਿੰਦੀ ਹੈ।
- ਖ਼ਬਰਾਂ ਵਰਗੇ ਮਹੱਤਵਪੂਰਨ ਮੀਡੀਆ ਲਈ ਬਲਾਕਚੈਨ-ਅਧਾਰਿਤ ਵੈਰੀਫਿਕੇਸ਼ਨ।
- ਬੈਂਕਿੰਗ ਐਪਸ ਲਈ ਐਡਵਾਂਸਡ ਲਾਈਵਨੈੱਸ ਡਿਟੈਕਸ਼ਨ।
- ਓਪਨ-ਸੋਰਸ ਡਿਟੈਕਸ਼ਨ ਟੂਲਸ ਜੋ ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਨਵੇਂ AI ਮਾਡਲਾਂ ਤੋਂ ਅੱਗੇ ਰਹਿਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹਨ।
ਡੀਪਫੇਕ ਬਣਾਉਣ ਵਾਲਿਆਂ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਫੜਨ ਵਾਲਿਆਂ ਵਿਚਕਾਰ ਲੜਾਈ ਬਿੱਲੀ ਅਤੇ ਚੂਹੇ ਦੀ ਖੇਡ ਵਾਂਗ ਹੈ। ਤੁਸੀਂ ਇਹਨਾਂ ਤਕਨੀਕੀ ਮਿਆਰਾਂ ਬਾਰੇ C2PA ਦੀ ਅਧਿਕਾਰਤ ਸਾਈਟ ‘ਤੇ ਹੋਰ ਪੜ੍ਹ ਸਕਦੇ ਹੋ। ਅਸੀਂ ਨਵੇਂ ਖ਼ਤਰਿਆਂ ਬਾਰੇ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨ ਲਈ ਵੱਖ-ਵੱਖ ਪਲੇਟਫਾਰਮਾਂ ਵਿਚਕਾਰ ਵਧੇਰੇ ਸਹਿਯੋਗ ਵੀ ਦੇਖ ਰਹੇ ਹਾਂ। ਇਸ ਤੋਂ ਇਲਾਵਾ, Federal Trade Commission ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਇਹਨਾਂ ਨਵੇਂ ਕਿਸਮ ਦੇ ਟੈਕ-ਅਧਾਰਿਤ ਘੁਟਾਲਿਆਂ ਤੋਂ ਬਚਾਉਣ ਲਈ ਆਪਣੇ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਨੂੰ ਲਗਾਤਾਰ ਅਪਡੇਟ ਕਰ ਰਿਹਾ ਹੈ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਡੀਪਫੇਕਸ ਦੀ ਦੁਨੀਆ ਤੇਜ਼ੀ ਨਾਲ ਬਦਲ ਰਹੀ ਹੈ, ਪਰ ਅਸੀਂ ਇਸਦੇ ਲਈ ਪੂਰੀ ਤਰ੍ਹਾਂ ਤਿਆਰ ਹਾਂ। ਸਮਾਰਟ ਕਾਨੂੰਨਾਂ ਨੂੰ ਹੋਰ ਵੀ ਸਮਾਰਟ ਟੈਕਨਾਲੋਜੀ ਨਾਲ ਜੋੜ ਕੇ, ਅਸੀਂ ਇੱਕ ਅਜਿਹਾ ਇੰਟਰਨੈੱਟ ਬਣਾ ਰਹੇ ਹਾਂ ਜੋ ਮਜ਼ੇਦਾਰ ਅਤੇ ਭਰੋਸੇਮੰਦ ਦੋਵੇਂ ਹੈ। ਅਸੀਂ ਸਿਰਫ਼ ਚਿੰਤਤ ਹੋਣ ਦੇ ਪੜਾਅ ਤੋਂ ਅੱਗੇ ਨਿਕਲ ਚੁੱਕੇ ਹਾਂ ਅਤੇ ਹੁਣ ਅਸਲ ਕਾਰਵਾਈ ਕਰ ਰਹੇ ਹਾਂ। ਭਵਿੱਖ ਉਜਵਲ ਦਿਖਾਈ ਦੇ ਰਿਹਾ ਹੈ, ਅਤੇ ਥੋੜ੍ਹੀ ਜਿਹੀ ਉਤਸੁਕਤਾ ਅਤੇ ਸਹੀ ਨਿਯਮਾਂ ਦੇ ਨਾਲ, ਅਸੀਂ ਸਾਰੇ AI ਦੁਆਰਾ ਪੇਸ਼ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਵਧੀਆ ਮੌਕਿਆਂ ਦਾ ਆਨੰਦ ਲੈ ਸਕਦੇ ਹਾਂ। ਖੋਜ ਕਰਦੇ ਰਹੋ, ਸਵਾਲ ਪੁੱਛਦੇ ਰਹੋ, ਅਤੇ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ, ਇਸ ਸ਼ਾਨਦਾਰ ਟੈਕਨਾਲੋਜੀ ਦਾ ਆਨੰਦ ਮਾਣੋ ਜੋ ਸਾਨੂੰ ਸਾਰਿਆਂ ਨੂੰ ਜੋੜਦੀ ਹੈ।
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.