AI ਲਈ ਨਵਾਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਿਆ ਹੈ
ਬਿਨਾਂ ਇਜਾਜ਼ਤ ਇਨੋਵੇਸ਼ਨ ਦਾ ਅੰਤ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਵਿੱਚ ‘ਵਾਈਲਡ ਵੈਸਟ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। ਸਾਲਾਂ ਤੱਕ, ਡਿਵੈਲਪਰਾਂ ਨੇ ਬਹੁਤ ਘੱਟ ਨਿਗਰਾਨੀ ਅਤੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਮਾਡਲ ਬਣਾਏ। ਹੁਣ, ਉਸ ਆਜ਼ਾਦੀ ਨੂੰ ਪਾਲਣਾ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਢਾਂਚੇ ਨਾਲ ਬਦਲਣ ਲਈ ਇੱਕ ਨਵੀਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਉਭਰ ਰਹੀ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸੁਝਾਅ ਨਹੀਂ ਹਨ, ਸਗੋਂ ਇਹ ਭਾਰੀ ਜੁਰਮਾਨਿਆਂ ਅਤੇ ਮਾਰਕੀਟ ਤੋਂ ਬਾਹਰ ਕੀਤੇ ਜਾਣ ਦੇ ਡਰ ਨਾਲ ਸਮਰਥਿਤ ਸਖ਼ਤ ਕਾਨੂੰਨ ਹਨ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਆਪਣੇ ਵਿਆਪਕ AI Act ਨਾਲ ਅਗਵਾਈ ਕਰ ਰਹੀ ਹੈ, ਜਦੋਂ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ ਸਭ ਤੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣ ਵਾਲੇ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ਾਂ ਨਾਲ ਅੱਗੇ ਵਧ ਰਿਹਾ ਹੈ। ਇਹ ਨਿਯਮ ਬਦਲ ਦੇਣਗੇ ਕਿ ਕੋਡ ਕਿਵੇਂ ਲਿਖਿਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਕਿਵੇਂ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਬਦਲ ਦੇਣਗੇ ਕਿ ਇਸ ਮੁਕਾਬਲੇ ਵਾਲੇ ਖੇਤਰ ਵਿੱਚ ਕੌਣ ਟਿਕ ਸਕਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਅਜਿਹਾ ਮਾਡਲ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਮਨੁੱਖੀ ਵਿਵਹਾਰ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਹੁਣ ਨਿਗਰਾਨੀ ਹੇਠ ਹੋ। ਇਹ ਤਬਦੀਲੀ ਉਦਯੋਗ ਦਾ ਧਿਆਨ ਰਫ਼ਤਾਰ ਤੋਂ ਹਟਾ ਕੇ ਸੁਰੱਖਿਆ ਵੱਲ ਲੈ ਜਾਂਦੀ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਲਾਂਚ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਸਿਸਟਮ ਪੱਖਪਾਤੀ ਨਹੀਂ ਹਨ। ਇਹ ਦੁਨੀਆ ਦੀ ਹਰ ਟੈਕ ਫਰਮ ਲਈ ਨਵੀਂ ਹਕੀਕਤ ਹੈ।
ਕੋਡ ਵਿੱਚ ਜੋਖਮ ਦਾ ਵਰਗੀਕਰਨ
ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਮੂਲ ਇੱਕ risk-based ਪਹੁੰਚ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕਾਨੂੰਨ ਇੱਕ ਮਿਊਜ਼ਿਕ ਰਿਕਮੈਂਡੇਸ਼ਨ ਇੰਜਣ ਨਾਲ ਉਸੇ ਤਰ੍ਹਾਂ ਪੇਸ਼ ਨਹੀਂ ਆਉਂਦਾ ਜਿਵੇਂ ਕਿ ਮੈਡੀਕਲ ਡਾਇਗਨੌਸਟਿਕ ਟੂਲ ਜਾਂ ਸੈਲਫ-ਡਰਾਈਵਿੰਗ ਕਾਰ ਨਾਲ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ ਇਸ ਕਿਸਮ ਦੇ ਨਿਯਮ ਲਈ ਇੱਕ ਮਿਆਰ ਸਥਾਪਤ ਕੀਤਾ ਹੈ। ਉਹ AI ਨੂੰ ਸਮਾਜ ਨੂੰ ਹੋਣ ਵਾਲੇ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਦੇ ਆਧਾਰ ‘ਤੇ ਚਾਰ ਵੱਖ-ਵੱਖ ਸ਼੍ਰੇਣੀਆਂ ਵਿੱਚ ਵੰਡਦੇ ਹਨ। ਵਰਜਿਤ ਸਿਸਟਮ ਉਹ ਹਨ ਜੋ ਸਪੱਸ਼ਟ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਂਦੇ ਹਨ ਅਤੇ ਉਨ੍ਹਾਂ ‘ਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪਾਬੰਦੀ ਹੈ। ਇਸ ਵਿੱਚ ਸੋਸ਼ਲ ਸਕੋਰਿੰਗ ਸਿਸਟਮ ਸ਼ਾਮਲ ਹਨ ਜੋ ਨਾਗਰਿਕਾਂ ਨੂੰ ਟਰੈਕ ਕਰਨ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਉੱਚ-ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਉਹ ਹਨ ਜਿਨ੍ਹਾਂ ‘ਤੇ ਰੈਗੂਲੇਟਰਾਂ ਦੀ ਸਭ ਤੋਂ ਵੱਧ ਨਜ਼ਰ ਰਹੇਗੀ। ਇਹ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਸਿੱਖਿਆ ਅਤੇ ਰੁਜ਼ਗਾਰ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਜੇਕਰ ਕੋਈ AI ਇਹ ਫੈਸਲਾ ਕਰਦਾ ਹੈ ਕਿ ਕਿਸ ਨੂੰ ਨੌਕਰੀ ਮਿਲਦੀ ਹੈ ਜਾਂ ਕਿਸ ਨੂੰ ਲੋਨ ਮਿਲਦਾ ਹੈ, ਤਾਂ ਇਹ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਅਤੇ ਉੱਚ ਪੱਧਰੀ ਸ਼ੁੱਧਤਾ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਸੀਮਤ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ ਚੈਟਬੋਟਸ, ਵਿੱਚ ਘੱਟ ਨਿਯਮ ਹਨ ਪਰ ਫਿਰ ਵੀ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਘੱਟੋ-ਘੱਟ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ AI ਦੁਸ਼ਮਣਾਂ ਵਾਲੀਆਂ ਵੀਡੀਓ ਗੇਮਾਂ, ਨੂੰ ਜ਼ਿਆਦਾਤਰ ਇਕੱਲਾ ਛੱਡ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਢਾਂਚਾ ਤਰੱਕੀ ਨੂੰ ਰੋਕੇ ਬਿਨਾਂ ਅਧਿਕਾਰਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੀਆਂ ਪਰਿਭਾਸ਼ਾਵਾਂ ਅਜੇ ਵੀ ਅਦਾਲਤਾਂ ਵਿੱਚ ਬਹਿਸ ਦਾ ਵਿਸ਼ਾ ਹਨ।
ਯੂਰਪੀਅਨ ਸੰਸਦ ਨੇ EU AI Act ‘ਤੇ ਆਪਣੀ ਤਾਜ਼ਾ ਬ੍ਰੀਫਿੰਗ ਵਿੱਚ ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦਾ ਵੇਰਵਾ ਦਿੱਤਾ ਹੈ। ਇਹ ਦਸਤਾਵੇਜ਼ ਇਸ ਗੱਲ ਦਾ ਆਧਾਰ ਹੈ ਕਿ ਬਾਕੀ ਦੁਨੀਆ AI ਗਵਰਨੈਂਸ ਬਾਰੇ ਕਿਵੇਂ ਸੋਚ ਰਹੀ ਹੈ।
ਗਲੋਬਲ ਸਟੈਂਡਰਡਾਈਜ਼ੇਸ਼ਨ ਦੀ ਦੌੜ
ਇਹ ਨਿਯਮ ਸਿਰਫ਼ ਯੂਰਪ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਰਹਿ ਰਹੇ। ਅਸੀਂ ਰੀਅਲ ਟਾਈਮ ਵਿੱਚ *Brussels Effect* ਦਾ ਉਭਾਰ ਦੇਖ ਰਹੇ ਹਾਂ। ਜਦੋਂ ਇੱਕ ਵੱਡੀ ਮਾਰਕੀਟ ਨਿਯਮ ਤੈਅ ਕਰਦੀ ਹੈ, ਤਾਂ ਦੂਜਿਆਂ ਨੂੰ ਵੀ ਉਨ੍ਹਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਪੈਂਦੀ ਹੈ। ਇੱਕ ਗਲੋਬਲ ਕੰਪਨੀ ਪੈਰਿਸ ਲਈ ਇੱਕ ਮਾਡਲ ਅਤੇ ਨਿਊਯਾਰਕ ਲਈ ਦੂਜਾ ਮਾਡਲ ਨਹੀਂ ਬਣਾਏਗੀ ਜੇਕਰ ਅਜਿਹਾ ਕਰਨ ਦੀ ਲਾਗਤ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਉਹ ਸਿਰਫ਼ ਸਭ ਤੋਂ ਸਖ਼ਤ ਮਿਆਰਾਂ ਅਨੁਸਾਰ ਹੀ ਬਣਾਉਣਗੇ। ਇਸੇ ਲਈ EU ਢਾਂਚਾ ਇੱਕ ਗਲੋਬਲ ਟੈਂਪਲੇਟ ਬਣ ਰਿਹਾ ਹੈ। ਬ੍ਰਾਜ਼ੀਲ ਅਤੇ ਕੈਨੇਡਾ ਪਹਿਲਾਂ ਹੀ ਅਜਿਹੇ ਕਾਨੂੰਨਾਂ ‘ਤੇ ਕੰਮ ਕਰ ਰਹੇ ਹਨ ਜੋ ਯੂਰਪੀਅਨ ਪਹੁੰਚ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ, ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਲਈ ਹਲਕੀ ਪਹੁੰਚ ਪਸੰਦ ਕਰਦਾ ਹੈ, ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਵੱਲ ਵਧ ਰਿਹਾ ਹੈ। ਵ੍ਹਾਈਟ ਹਾਊਸ ਨੇ ਇੱਕ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜਾਰੀ ਕੀਤਾ ਹੈ ਜਿਸ ਵਿੱਚ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਦੇ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਸਰਕਾਰ ਨਾਲ ਆਪਣੇ ਸੁਰੱਖਿਆ ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਹ ਇੱਕ ਖੰਡਿਤ ਪਰ ਇੱਕਜੁੱਟ ਹੁੰਦੀ ਰੈਗੂਲੇਸ਼ਨ ਦੀ ਦੁਨੀਆ ਬਣਾਉਂਦਾ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਨਵੇਂ ਨਿਯਮਾਂ ਨੂੰ ਪੜ੍ਹਨ ਲਈ ਵਕੀਲਾਂ ਦੀਆਂ ਟੀਮਾਂ ਰੱਖਣੀਆਂ ਪੈਣਗੀਆਂ। ਉੱਭਰਦੀਆਂ ਮਾਰਕੀਟਾਂ ਵਿੱਚ ਛੋਟੇ ਸਟਾਰਟਅੱਪਾਂ ਲਈ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ। ਇਹ ਇੱਕ ਉੱਚ-ਦਾਅ ਵਾਲੀ ਖੇਡ ਹੈ ਜਿੱਥੇ ਨਿਯਮ ਉਦੋਂ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ ਜਦੋਂ ਕਾਰਾਂ ਪਹਿਲਾਂ ਹੀ ਪੂਰੀ ਰਫ਼ਤਾਰ ਨਾਲ ਚੱਲ ਰਹੀਆਂ ਹਨ। AI ਸੁਰੱਖਿਆ ‘ਤੇ US Executive Order ਇੱਕ ਸਪੱਸ਼ਟ ਸੰਕੇਤ ਹੈ ਕਿ ਸਵੈ-ਨਿਯਮ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਇੱਕ ਪਾਲਣਾ ਕਰਨ ਵਾਲੇ ਦਫਤਰ ਵਿੱਚ ਇੱਕ ਦਿਨ
ਕਲਪਨਾ ਕਰੋ ਕਿ ਐਲੇਕਸ ਨਾਮ ਦਾ ਇੱਕ ਪ੍ਰੋਡਕਟ ਮੈਨੇਜਰ ਹੈ। ਐਲੇਕਸ ਇੱਕ ਸਟਾਰਟਅੱਪ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ ਜੋ HR ਲਈ AI ਟੂਲ ਬਣਾਉਂਦਾ ਹੈ। ਨਵੇਂ ਨਿਯਮਾਂ ਤੋਂ ਪਹਿਲਾਂ, ਐਲੇਕਸ ਹਰ ਸ਼ੁੱਕਰਵਾਰ ਦੁਪਹਿਰ ਨੂੰ ਇੱਕ ਅਪਡੇਟ ਜਾਰੀ ਕਰਦਾ ਸੀ। ਹੁਣ, ਪ੍ਰਕਿਰਿਆ ਬਹੁਤ ਹੌਲੀ ਅਤੇ ਸੋਚੀ-ਸਮਝੀ ਹੈ। ਹਰ ਨਵੀਂ ਵਿਸ਼ੇਸ਼ਤਾ ਨੂੰ ਕੋਡ ਦੀ ਇੱਕ ਲਾਈਨ ਤੈਨਾਤ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇੱਕ ਸਖ਼ਤ ਜੋਖਮ ਮੁਲਾਂਕਣ ਵਿੱਚੋਂ ਲੰਘਣਾ ਪੈਂਦਾ ਹੈ। ਐਲੇਕਸ ਨੂੰ ਸਿਖਲਾਈ ਡੇਟਾ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਅਤੇ ਇਹ ਦਿਖਾਉਣਾ ਹੁੰਦਾ ਹੈ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਸਮੂਹਾਂ ਦੇ ਵਿਰੁੱਧ ਵਿਤਕਰਾ ਨਹੀਂ ਕਰਦਾ ਹੈ। ਉਸਨੂੰ ਵਿਸਤ੍ਰਿਤ ਲੌਗ ਰੱਖਣੇ ਪੈਂਦੇ ਹਨ ਕਿ ਮਾਡਲ ਫੈਸਲੇ ਕਿਵੇਂ ਲੈਂਦਾ ਹੈ। ਇਹ ਵਿਕਾਸ ਚੱਕਰ ਵਿੱਚ ਹਫ਼ਤੇ ਜੋੜਦਾ ਹੈ। ਇੱਕ ਆਮ ਮੰਗਲਵਾਰ ਨੂੰ, ਐਲੇਕਸ ਕੋਡਿੰਗ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹੁੰਦਾ। ਉਹ ਮਾਡਲ ਕਾਰਡਾਂ ਦੀ ਸਮੀਖਿਆ ਕਰਨ ਲਈ ਇੱਕ ਪਾਲਣਾ ਅਧਿਕਾਰੀ (compliance officer) ਨਾਲ ਮੀਟਿੰਗ ਕਰ ਰਿਹਾ ਹੁੰਦਾ ਹੈ। ਉਹ ਜਾਂਚ ਕਰ ਰਹੇ ਹਨ ਕਿ ਕੀ API ਲੌਗ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਡੇਟਾ ਰਿਟੈਨਸ਼ਨ ਦੇ ਨਵੇਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦੇ ਹਨ। ਇਹ ਉਹ ਰਗੜ ਹੈ ਜੋ ਸੁਰੱਖਿਆ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਉਪਭੋਗਤਾ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦਾ ਹੌਲੀ ਰੋਲਆਊਟ ਹੋ ਸਕਦਾ ਹੈ। ਪਰ ਇਸਦਾ ਮਤਲਬ ਇਹ ਵੀ ਹੈ ਕਿ ਇੱਕ ਬਲੈਕ ਬਾਕਸ ਐਲਗੋਰਿਦਮ ਦੁਆਰਾ ਨੌਕਰੀ ਲਈ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਅਸਵੀਕਾਰ ਕੀਤੇ ਜਾਣ ਦੀ ਸੰਭਾਵਨਾ ਘੱਟ ਹੈ। ਲੋਕ ਅਕਸਰ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾਉਂਦੇ ਹਨ ਕਿ ਇਹ ਨਿਯਮ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਕਿੰਨਾ ਰੋਕਣਗੇ। ਅਸਲ ਵਿੱਚ, ਇਹ ਸਿਰਫ਼ ਆਪਣੀ ਸ਼ਕਲ ਬਦਲੇਗਾ। ਲੋਕ ਇਨ੍ਹਾਂ ਕਾਨੂੰਨਾਂ ਦੀ ਗੁੰਝਲਤਾ ਨੂੰ ਵੀ ਘੱਟ ਸਮਝਦੇ ਹਨ। ਇਹ ਸਿਰਫ਼ ਪੱਖਪਾਤ ਤੋਂ ਬਚਣ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਡੇਟਾ ਪ੍ਰਭੂਸੱਤਾ ਅਤੇ ਊਰਜਾ ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਹੈ। ਵਿਰੋਧਾਭਾਸ ਹਰ ਜਗ੍ਹਾ ਹਨ। ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ AI ਤੇਜ਼ ਅਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਹੋਵੇ, ਪਰ ਅਸੀਂ ਇਹ ਵੀ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਇਹ ਹੌਲੀ ਅਤੇ ਸਾਵਧਾਨ ਹੋਵੇ। ਐਲੇਕਸ ਨੂੰ ਹਰ ਹਫ਼ਤੇ ਕਈ ਖਾਸ ਕੰਮ ਕਰਨੇ ਪੈਂਦੇ ਹਨ:
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਦੀ ਸਮੀਖਿਆ ਕਰਨਾ ਕਿ ਸਾਰੇ ਸਿਖਲਾਈ ਸੈੱਟ ਕਾਨੂੰਨੀ ਤੌਰ ‘ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਹਨ।
- ਹਰ ਨਵੇਂ ਮਾਡਲ ਇਟਰੇਸ਼ਨ ‘ਤੇ ਪੱਖਪਾਤ ਖੋਜ ਸਕ੍ਰਿਪਟਾਂ ਚਲਾਉਣਾ।
- ਵੱਡੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਗਏ ਕੰਪਿਊਟ ਸਰੋਤਾਂ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ।
- ਲਾਜ਼ਮੀ AI ਖੁਲਾਸੇ ਸ਼ਾਮਲ ਕਰਨ ਲਈ ਯੂਜ਼ਰ ਇੰਟਰਫੇਸ ਨੂੰ ਅਪਡੇਟ ਕਰਨਾ।
- ਕੰਪਨੀ ਦੇ ਸੁਰੱਖਿਆ ਪ੍ਰੋਟੋਕੋਲ ਦੇ ਤੀਜੀ-ਧਿਰ ਆਡਿਟ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨਾ।
ਦਿਨ ਦੇ ਅੰਤ ਤੱਕ, ਐਲੇਕਸ ਇਨ੍ਹਾਂ ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਭਾਰ ਮਹਿਸੂਸ ਕਰਦਾ ਹੈ। ਉਹ ਜਾਣਦਾ ਹੈ ਕਿ ਉਹ ਨਿਰਪੱਖਤਾ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਪਰ ਉਹ ਇਹ ਵੀ ਜਾਣਦਾ ਹੈ ਕਿ ਘੱਟ ਨਿਯਮਾਂ ਵਾਲੇ ਦੇਸ਼ਾਂ ਵਿੱਚ ਉਸਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧ ਰਹੇ ਹਨ। ਉਹ ਸੋਚਦਾ ਹੈ ਕਿ ਕੀ ਉਸਦਾ ਸਟਾਰਟਅੱਪ ਨੈਤਿਕ ਹੋਣ ਦੀ ਲਾਗਤ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਹਜ਼ਾਰਾਂ ਡਿਵੈਲਪਰਾਂ ਲਈ ਹਕੀਕਤ ਹੈ। ਹੋਰ ਜਾਣਕਾਰੀ ਲਈ, ਸਾਡਾ ਨਵੀਨਤਮ AI ਨੀਤੀ ਵਿਸ਼ਲੇਸ਼ਣ ਦੇਖੋ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਨਵੇਂ ਰੈਗੂਲੇਟਰਾਂ ਲਈ ਔਖੇ ਸਵਾਲ
ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਤੋਂ ਅਸਲ ਵਿੱਚ ਕਿਸ ਨੂੰ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ? ਕੀ ਇਹ ਜਨਤਾ ਹੈ, ਜਾਂ ਇਹ ਵੱਡੀਆਂ ਟੈਕ ਕੰਪਨੀਆਂ ਹਨ ਜੋ ਕਾਨੂੰਨੀ ਫੀਸਾਂ ਦਾ ਖਰਚਾ ਉਠਾ ਸਕਦੀਆਂ ਹਨ? ਜੇਕਰ ਕਿਸੇ ਸਟਾਰਟਅੱਪ ਨੂੰ ਆਪਣੇ ਸੀਡ ਰਾਉਂਡ ਦਾ ਅੱਧਾ ਹਿੱਸਾ ਪਾਲਣਾ ‘ਤੇ ਖਰਚ ਕਰਨਾ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਕੀ ਇਹ ਮੁਕਾਬਲੇ ਨੂੰ ਖਤਮ ਕਰ ਦਿੰਦਾ ਹੈ? ਸਾਨੂੰ ਗੋਪਨੀਯਤਾ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ ਬਾਰੇ ਵੀ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਹਰ ਮਾਡਲ ਦਾ ਆਡਿਟ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਾਂ ਆਡਿਟ ਕੌਣ ਕਰਦਾ ਹੈ? ਕੀ ਅਸੀਂ ਕਿਸੇ ਸਰਕਾਰੀ ਏਜੰਸੀ ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹਾਂ ਕਿ ਉਸ ਕੋਲ ਹਰ ਵੱਡੇ AI ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਤੱਕ ਪਹੁੰਚ ਹੋਵੇ? ਗਲੋਬਲ ਅਸਮਾਨਤਾ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜੇਕਰ ਪੱਛਮ ਨਿਯਮ ਤੈਅ ਕਰਦਾ ਹੈ, ਤਾਂ ਗਲੋਬਲ ਸਾਊਥ ਦਾ ਕੀ ਹੋਵੇਗਾ? ਕੀ ਉਨ੍ਹਾਂ ਨੂੰ ਅਜਿਹੇ ਮਾਪਦੰਡ ਅਪਣਾਉਣ ਲਈ ਮਜਬੂਰ ਕੀਤਾ ਜਾਵੇਗਾ ਜੋ ਉਨ੍ਹਾਂ ਦੀਆਂ ਸਥਾਨਕ ਲੋੜਾਂ ਦੇ ਅਨੁਕੂਲ ਨਹੀਂ ਹਨ? ਸਾਨੂੰ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਇਹ ਨਿਯਮ ਸਾਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾਉਂਦੇ ਹਨ, ਪਰ ਕੀ ਉਹ ਅਸਲ ਵਿੱਚ ਅਜਿਹਾ ਕਰਦੇ ਹਨ? ਜਾਂ ਕੀ ਉਹ ਸਿਰਫ਼ ਸੁਰੱਖਿਆ ਦਾ ਇੱਕ ਝੂਠਾ ਅਹਿਸਾਸ ਪੈਦਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਅਸਲ ਜੋਖਮ ਡਾਰਕ ਵੈੱਬ ਦੇ ਅਨਿਯੰਤ੍ਰਿਤ ਹਿੱਸਿਆਂ ਵਿੱਚ ਚਲੇ ਜਾਂਦੇ ਹਨ? ਸਾਨੂੰ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ ਲਿਖਿਆ ਗਿਆ ਕਾਨੂੰਨ ਉਸ ਤਕਨਾਲੋਜੀ ਨਾਲ ਤਾਲਮੇਲ ਰੱਖ ਸਕਦਾ ਹੈ ਜੋ ਹਰ ਮਹੀਨੇ ਬਦਲਦੀ ਹੈ। United Nations AI Advisory Body ਇਨ੍ਹਾਂ ਗਲੋਬਲ ਪਾੜਿਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ, ਪਰ ਸਹਿਮਤੀ ਲੱਭਣਾ ਔਖਾ ਹੈ।
ਪਾਲਣਾ ਦਾ ਤਕਨੀਕੀ ਢਾਂਚਾ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨਿਯਮ ਬਹੁਤ ਖਾਸ ਹੋ ਜਾਂਦੇ ਹਨ। ਅਮਰੀਕੀ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜੋਖਮ ਲਈ ਇੱਕ ਪ੍ਰੌਕਸੀ ਵਜੋਂ ਕੰਪਿਊਟ ਪਾਵਰ ‘ਤੇ ਕੇਂਦ੍ਰਤ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ 10^26 ਫਲੋਟਿੰਗ ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨਾਂ ਤੋਂ ਵੱਧ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਲਾਜ਼ਮੀ ਰਿਪੋਰਟਿੰਗ ਲੋੜ ਨੂੰ ਚਾਲੂ ਕਰਦਾ ਹੈ। ਇਹ ਕੰਪਿਊਟ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਹੈ, ਪਰ ਜਿਵੇਂ-ਜਿਵੇਂ ਹਾਰਡਵੇਅਰ ਬਿਹਤਰ ਹੁੰਦਾ ਹੈ, ਹੋਰ ਮਾਡਲ ਇਸ ਸੀਮਾ ਤੱਕ ਪਹੁੰਚ ਜਾਣਗੇ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਬਾਰੇ ਵੀ ਚਿੰਤਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਤੁਸੀਂ ਹੁਣ ਸਿਰਫ਼ ਇੰਟਰਨੈਟ ਨੂੰ ਸਕ੍ਰੈਪ ਨਹੀਂ ਕਰ ਸਕਦੇ ਅਤੇ ਸਭ ਤੋਂ ਵਧੀਆ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਤੁਹਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਅਧਿਕਾਰ ਹੈ। ਰੈੱਡ-ਟੀਮਿੰਗ ਲਈ ਵੀ ਨਵੇਂ ਮਾਪਦੰਡ ਹਨ। ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਤੁਸੀਂ ਆਪਣੇ AI ਨੂੰ ਤੋੜਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ ਲੋਕਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰਦੇ ਹੋ। ਇਹਨਾਂ ਟੈਸਟਾਂ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਹੁਣ ਦਸਤਾਵੇਜ਼ੀ ਰੂਪ ਵਿੱਚ ਦਰਜ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਕੁਝ ਅਧਿਕਾਰ ਖੇਤਰਾਂ ਵਿੱਚ ਰੈਗੂਲੇਟਰਾਂ ਨਾਲ ਸਾਂਝਾ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। API ਪ੍ਰਦਾਤਾਵਾਂ ਨੂੰ ਵੀ ਨਵੀਆਂ ਸੀਮਾਵਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਰਿਹਾ ਹੈ। ਉਨ੍ਹਾਂ ਨੂੰ ਗਲਤ ਹੱਥਾਂ ਵਿੱਚ ਜਾਣ ਤੋਂ ਰੋਕਣ ਲਈ ਆਪਣੇ ਗਾਹਕਾਂ ਦੀ ਪਛਾਣ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਮਾਡਲਾਂ ਦੀ ਸਥਾਨਕ ਸਟੋਰੇਜ ਚਿੰਤਾ ਦਾ ਇੱਕ ਹੋਰ ਖੇਤਰ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਲੈਪਟਾਪ ‘ਤੇ ਚੱਲਣ ਲਈ ਕਾਫ਼ੀ ਛੋਟਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਨੂੰ ਕਿਵੇਂ ਲਾਗੂ ਕਰਦੇ ਹੋ? ਜਵਾਬ ਅਕਸਰ ਹਾਰਡਵੇਅਰ-ਪੱਧਰ ਦੀਆਂ ਪਾਬੰਦੀਆਂ ਜਾਂ AI-ਉਤਪੰਨ ਸਮੱਗਰੀ ਦੀ ਲਾਜ਼ਮੀ ਵਾਟਰਮਾਰਕਿੰਗ ਦੁਆਰਾ ਹੁੰਦਾ ਹੈ।
- ਸਾਰੇ ਮਾਡਲ ਸਿਖਲਾਈ ਸੈਸ਼ਨਾਂ ਲਈ ਮਜ਼ਬੂਤ ਲੌਗਿੰਗ ਲਾਗੂ ਕਰਨਾ।
- ਟੈਕਸਟ ਅਤੇ ਚਿੱਤਰ ਆਉਟਪੁੱਟ ਨੂੰ ਵਾਟਰਮਾਰਕ ਕਰਨ ਲਈ ਸਵੈਚਲਿਤ ਟੂਲ ਵਿਕਸਿਤ ਕਰਨਾ।
- ਤੀਜੀ-ਧਿਰ ਮਾਡਲ ਆਡਿਟ ਲਈ ਸੁਰੱਖਿਅਤ ਵਾਤਾਵਰਣ ਸਥਾਪਤ ਕਰਨਾ।
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ API ਰੇਟ ਸੀਮਾਵਾਂ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਨਾ ਕਰਨ।
- ਸਾਰੇ ਮਨੁੱਖੀ-ਇਨ-ਦ-ਲੂਪ ਦਖਲਅੰਦਾਜ਼ੀ ਦੇ ਵਿਸਤ੍ਰਿਤ ਰਿਕਾਰਡ ਰੱਖਣਾ।
ਇਹ ਲੋੜਾਂ ਇੱਕ ਡਿਵੈਲਪਰ ਦੇ ਵਰਕਫਲੋ ਨੂੰ ਬਦਲਦੀਆਂ ਹਨ। ਇਹ ਹੁਣ ਸਿਰਫ਼ ਸ਼ੁੱਧਤਾ ਜਾਂ ਗਤੀ ਲਈ ਅਨੁਕੂਲਿਤ ਕਰਨ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਸਿਸਟਮ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਜੋ ਸ਼ੁਰੂ ਤੋਂ ਹੀ ਆਡਿਟ ਕਰਨ ਯੋਗ ਹੋਵੇ।
ਅਧੂਰਾ ਢਾਂਚਾ
ਸਿੱਟਾ ਇਹ ਹੈ ਕਿ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਲਈ ‘ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਚੀਜ਼ਾਂ ਤੋੜੋ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਅਸੀਂ ‘ਸਾਵਧਾਨੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਹਰ ਚੀਜ਼ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰੋ’ ਦੇ ਦੌਰ ਵਿੱਚ ਜਾ ਰਹੇ ਹਾਂ। ਨਿਯਮ ਅਜੇ ਵੀ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ, ਅਤੇ ਉਹ ਸੰਪੂਰਨ ਹੋਣ ਤੋਂ ਬਹੁਤ ਦੂਰ ਹਨ। ਉਹ ਸੁਰੱਖਿਆ, ਮੁਨਾਫੇ ਅਤੇ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਵਿਚਕਾਰ ਇੱਕ ਗੜਬੜ ਵਾਲਾ ਸਮਝੌਤਾ ਹਨ। ਇੱਕ ਵੱਡਾ ਸਵਾਲ ਖੁੱਲ੍ਹਾ ਹੈ: ਕੀ ਇੱਕ ਕੇਂਦਰੀਕ੍ਰਿਤ ਕਾਨੂੰਨ ਕਦੇ ਵੀ ਇੱਕ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਤਕਨਾਲੋਜੀ ਨੂੰ ਸੱਚਮੁੱਚ ਨਿਯੰਤਰਿਤ ਕਰ ਸਕਦਾ ਹੈ? ਜਿਵੇਂ-ਜਿਵੇਂ ਓਪਨ-ਸੋਰਸ ਮਾਡਲ ਸੁਧਰਦੇ ਰਹਿੰਦੇ ਹਨ, ਜੋ ਨਿਯੰਤ੍ਰਿਤ ਹੈ ਅਤੇ ਜੋ ਸੰਭਵ ਹੈ, ਉਸ ਵਿਚਕਾਰ ਪਾੜਾ ਵਧਦਾ ਜਾਵੇਗਾ। ਇਹ ਕਹਾਣੀ ਦਾ ਅੰਤ ਨਹੀਂ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸ਼ੁਰੂਆਤ ਦਾ ਅੰਤ ਹੈ। ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ, ਪਰ ਸਿਆਹੀ ਅਜੇ ਵੀ ਗਿੱਲੀ ਹੈ। ਅਸੀਂ ਦੇਖਾਂਗੇ ਕਿ ਆਉਣ ਵਾਲੇ ਮਹੀਨਿਆਂ ਵਿੱਚ ਇਹ ਕਾਨੂੰਨ ਕਿਵੇਂ ਲਾਗੂ ਹੁੰਦੇ ਹਨ ਅਤੇ ਉਦਯੋਗ ਕਿਵੇਂ ਅਨੁਕੂਲ ਹੁੰਦਾ ਹੈ। ਇੱਕੋ ਇੱਕ ਨਿਸ਼ਚਿਤਤਾ ਇਹ ਹੈ ਕਿ ਅਸੀਂ AI ਨੂੰ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਅਤੇ ਵਰਤਦੇ ਹਾਂ, ਉਹ ਕਦੇ ਵੀ ਪਹਿਲਾਂ ਵਰਗਾ ਨਹੀਂ ਰਹੇਗਾ।
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।